ChatGPTは、OpenAI社が開発した有名なAIツールです。高度な能力を持つ人工知能(AI)ツールであり、さまざまな分野に適用されています。ChatGPTはソフトウェア開発にも適用可能です。
しかし、AI技術の反対側では、FraudGPTのようなサイバー犯罪の発展を行うために意図的に悪用される可能性もあります。
7月18日(火)に発表されたレポートの中で、Netenrichのセキュリティ研究者であるRakesh Krishnanは、「これは AI ボットであり、スピアフィッシングメールの作成・クラッキングツールの作成などの攻撃的な目的のみを対象としている」と述べています。
このツールは、2023年7月22日からダークウェブフォーラムとテレグラムプラットフォーム上で出回っています。レポートによると、サブスクリプションの料金は毎月200ドル、半年1000ドル、1年1,700ドルで提供されているということです。
作成者が主張するところによれば、FraudGPTは悪意のあるコードを書き、検出不可能なマルウェアを作成、対象システムのシステムの漏洩や脆弱性を発見するために使用できるとされています。さらに、FraudGPTの販売とレビューは3,000件以上確認されています。現時点では、システム開発のための正確な言語モデルは不明です。

このようなツールは、フィッシング・アズ・ア・サービス(PhaaS)のサービスモデルを次のレベルに昇華するだけでなく、フィッシングやビジネス メール侵害の攻撃を仕掛けようとする新規サイバー犯罪者にとってフリーパスとしても機能します。それは、データ盗難や不正な銀行支払いにつながります。
7月初めに、別のAIサイバー犯罪ツールであるWormGPTが登場しました。これは、高度なフィッシング攻撃やビジネスメール侵害攻撃のためのツールとして、多くのダークウェブ フォーラムで宣伝されました。専門家はこれをサイバー犯罪用に設計されたGPTモデルの代替となるブラックハットと呼んでいます。
サイバー犯罪者は、ChatGPTのAPI を利用して、ChatGPT のルールや制限に違反していることが知られています。FraudGPTとWormGPTはどちらも倫理的境界なく動作します。これは、AI技術がもたらす脅威を示す十分な証拠です。
皆さんは、今、AIによるサイバー犯罪について心配し始めたと思います。これは本当にデジタルリスクの新時代の始まりなのでしょうか?
参照元:
イメージ:freepik