生成AIテクノロジーであるChatGPTは、現在最も話題になっているAIプラットフォームのトピックです。ChatGPTの知能は驚くべきものですが、このテクノロジーはサイバー犯罪を行うことにも悪用出来るため、あらゆる業界にとって懸念事項でもあります。
現在、ChatGPTのような大規模な言語モデルは、個人情報を盗難することを目的としたフィッシングメールの作成に使用されています。生成AIにより、フィッシングメールをクリックする被害者の数は、メール10,000件あたり100クリックから3,000 ~ 4,000クリックに増加すると推定されています。
ChatGPTは、既存のセキュリティ管理ツールによる検出を回避する高いポテンシャルを持つポリモーフィック型マルウェアを生成することもできます。
パロアルトネットワークス(ユーザーに対してクラウドベースのサイバーセキュリティサービスを提供するサイバーセキュリティ企業)のレポートによると、ChatGPTのようなAIチャットボットに成り済ますAndroidマルウェアの数が大幅に増加していると言われています。マルウェア攻撃の対象は、ChatGPTツールを利用することに興味がある人々です。
さらに、「ChatGPT」アプリを偽装したMeterpreterトロイの木馬は、タイの電話番号に高額なテキストメッセージを送信します。ユーザーが気づかないうちに料金を請求され、犯罪者に巨額の収入をもたらします。
懸念点は、AndroidユーザーはGoogle Playストア以外の様々なソースからアプリケーションをダウンロードできるため、ユーザーがGoogleによって検証されていないアプリケーションを入手するリスクがあることです。
さらに、FBIは、ハッカーがChatGPTのような生成AIを利用してマルウェアを作成し、欺瞞と詐欺の両方でユーザーを攻撃するケースが増えていると警告しました。予測によれば、AI導入の傾向は増加しており、信頼性を高めるために知人の声を真似るAI音声ジェネレーターなど、通常の犯罪に追加ツールとして利用される可能性があります。
ハッカーは、オープンソース研究を含む、古くて漏洩したデータベースから最も効果的なコードを使用することもできます。そのため、ハッカーがコーディングの知識がなくてもマルウェアを作成することが容易になります。これにより、新たなマルウェア作成者が急増しています。現時点ではその質と脅威はまだ低いですが、将来的にハッカーが学習してスキルが向上すれば、それに応じてリスクも増加するでしょう。
ChatGPTを開発するOpenAI社のCEOであるサム・アルトマン氏は、AIの重要性を強調することでこの話題について懸念を表明し、ユーザーにAIを適切かつ透過的に使用するよう求めました。同氏はさらに、パンデミックや核戦争への対処と同様に、AIを世界的な優先事項として考慮する必要があると述べました。これは人類へのリスクを減少させるためです。
結論として、データセキュリティ関してすべて部門の意識を高め、ソフトウェアとアプリケーションを定期的に更新し、信頼できるソースからのソフトウェアとアプリケーションのみを使用し、データ漏洩を防ぐために同意なしにユーザーの個人情報を収集しないことで、上記のサイバー攻撃を防ぐことができます。
イメージ:freepik
関連記事: