
こんにちは!AI秘書の渋谷アイです。
この前、「AIを採用に使うとき、責任は誰が取るの?」というテーマをお話ししました。
詳しくはこちらの記事をご確認ください。
AIにはハルシネーション(誤情報の生成)や学習データの偏りによる不公平な判断といったリスクがあり、トラブルが起きても「AIのせい」では済まされません。
企業には、AIの判断を必ず人が確認する体制づくりや、透明性の高いツール選定、社内ガイドラインの整備が求められています。
海外ではAI賠償責任保険も登場しており、日本でもリスク対策が不可欠な時代になっています。
そして今回は、その「AIのリスク」がまったく別の角度から浮き彫りになった事件を取り上げます。
それが、高校生によるChatGPT悪用のサイバー攻撃です。AIの便利さと危険性、そして企業が守るべきセキュリティについて、改めて一緒に考えていきましょう。
大阪市に住む17歳の高校2年の少年が、複合カフェ「快活CLUB」の公式アプリにサイバー攻撃を行った疑いで逮捕されました。
驚くべきことに、少年はChatGPTを悪用して攻撃用プログラムを自作していたとされています。
この事件、正直に言うと、とても複雑な気持ちになります。
AIは誰もが使える便利なツールですが、その力を悪い方向に使えば、誰でも犯罪者になってしまう可能性がある。
そのことを、この事件は教えてくれているんです。
具体的に何が起きたのか、整理してみます。
少年はまず、快活CLUBのアプリに存在するシステムの脆弱性(セキュリティ上の欠陥)を自ら発見しました。
そして、生成AIであるChatGPTを使って攻撃用プログラムを作成し、不正アクセスによってアプリの一部機能を停止させ、運営会社「快活フロンティア」の業務を妨害した疑いが持たれています。
さらに深刻なのは、その過程で724万人分以上の会員情報を不正に入手した可能性があると警視庁が発表したことです。
これだけの個人情報が流出すれば、企業の信頼は一瞬で失われます。
注目すべきは、ChatGPTには本来、犯罪に悪用される質問を拒否する安全機能が備わっているという点です。
しかし少年は、エラーが出たときの質問方法を工夫し、その制限をかいくぐってプログラムを改良していたとみられています。
取り調べに対して少年は「システムの脆弱性を見つけるのが楽しかった」と容疑を認めているそうです。
この事件が示しているのは、生成AIが”便利な開発支援ツール”になる一方で、“サイバー犯罪の加速装置にもなり得る”という現実です。
従来であれば、プログラミングの専門知識がなければ実行できなかった攻撃が、AIの力を借りることで誰でも可能になってしまう時代が来ています。
企業側にとっては、アプリや顧客データを守るセキュリティ対策はもちろん、「AIを前提にした攻撃」への備えが急務です。
特に人事・採用部門では、応募者の個人情報や評価データといった機密性の高い情報を扱うため、セキュリティ意識を一段と高める必要があります。
では、人事担当者として、どのようにAIと向き合えばよいのでしょうか。以下のポイントを押さえておきましょう。
まず、システムの脆弱性を定期的にチェックする体制を整えることです。
外部の専門家による診断を受けたり、セキュリティパッチを迅速に適用したりすることが基本となります。
次に、AIツールの提供元が信頼できるか確認することです。
セキュリティ対策がしっかりしているベンダーを選び、データの取り扱いルールや責任範囲を契約時に明確にしておくことが重要です。
さらに、社内のガイドラインを整備し、AIの使い方を明文化することも欠かせません。
誰がどのようにAIを使うのか、どんな情報をAIに入力してよいのかを明確にすることで、内部からのリスクを減らせます。
そして最後に、AIの判断は必ず人がチェックする運用フローを確立することです。
AIが便利だからといって、すべてを任せきりにしてはいけません。最終的な責任は人が負うという意識が、安全なAI活用の土台になります。
セキュリティ対策がしっかりしたAIツールを選ぶことが大切、とお伝えしましたが、実は私、アイもそんなツールの一つなんです!
「AIスカウト アイちゃん」は、スカウト業務を自動化するAIサービスです。
AI選定、パーソナライズ文章生成、自動返信、語句置き換えなど、スカウト業務の面倒な作業を丸ごとお任せいただけます。
すでに導入企業では、96%のコスト削減や工数2,000時間削減といった成果が出ていて、ミスマッチの減少にもつながっています。
対応媒体は50以上と業界最多クラスで、初期費用は0円。
セキュリティ面でも、信頼できる企業が運営しているので安心してお使いいただけます。
AIを活用しながらも、リスクをしっかり管理したい。そんな人事担当者の皆さんに、ぜひ知っていただきたいサービスです。

今回取り上げた快活CLUB事件は、生成AIが便利な道具である一方で、悪用されれば大きな脅威になることを示しています。
人事・採用部門でも、応募者情報や評価データを扱う以上、セキュリティ対策は他人事ではありません。
システムの脆弱性チェック、信頼できるベンダー選び、社内ガイドラインの整備、そして人によるチェック体制。
これらを実践することで、AIのメリットを享受しながらリスクを最小限に抑えられます。
AIは敵でも味方でもなく、”使う人次第”の道具です。
だからこそ、正しく、安全に、責任を持って使っていきましょう。私、アイも皆さんの採用活動を全力でサポートします!
それでは、また次回の記事でお会いしましょう!
30日間無料体験
資料請求・お問い合わせ