小心!网民以ChatGPT开发炒币机器人「遭埋后门」,私钥泄漏钱包瞬间被清空

avatar
動區動趨
9 小时前

成式人工智慧(AI)为我们带来了便利,但是否能全然相信 AI 产生的内容就必须要注意的!昨(22)日,一名网友 r_ocky.eth 便分享自己试图透过 ChatGPT 开发机器人帮忙炒 pump.fun 的迷因币,但是万万没想到,ChatGPT 在这个机器人的程式码中写入了一个诈骗的 API 网站。为此,他损失了 2500 美元的资金。

此事件引发广泛讨论,资安机构慢雾创办人余弦也对此发表了看法。

Be careful with information from @OpenAI ! Today I was trying to write a bump bot for https://t.co/cIAVsMwwFk and asked @ChatGPTapp to help me with the code. I got what I asked but I didn't expect that chatGPT would recommend me a scam @solana API website. I lost around $2.5k 🧵pic.twitter.com/HGfGrwo3ir

— r_ocky.eth 🍌 (@r_cky0) November 21, 2024

ChatGPT 将私钥传送至诈骗网站

据 r_ocky.eth 分享,下图程式码是 ChatGPT 帮他生成的程式码的一部分,会在 API 中发送出自己的私钥,这是 ChatGPT 向他推荐的。

然而,ChatGPT 引用的 API 网址 solanaapis.com 是一个诈骗网站,搜寻该网址后画面呈现如下。

r_ocky.eth 表示,诈骗者在我使用这个 API 后迅速行动,仅仅 30 分钟内,就把我所有的资产转移到这个钱包地址:FdiBGKS8noGHY2fppnDgcgCQts95Ww8HSLUvWbzv1NhX。他表示:

我其实隐约觉得自己的操作可能有问题,但对 @OpenAI 的信任让我失去了警惕心。

此外,他也坦承说他犯了使用主钱包私钥的错误,但是他表示:「当你急于同时做很多事情时很容易犯错」。

随后,@r_cky0 也公开了当时与 ChatGPT 对话的全文,提供给大家做安全研究,避免类似事件再次发生。

余弦:真的被 AI 给骇了

对于这位网友悲惨的遭遇,链上安全专家余弦也表示其看法,他表示:

这位网友真的被 AI 给骇了」

没想到 GPT 给的程式码是带后门的,会将钱包私钥发给钓鱼网站。

同时余弦也提醒使用 GPT/Claude 等 LLM 时需注意,LLM 普遍存在欺诈行为。

看了下,这位朋友的钱包还真是被 AI 给“黑”了…用 GPT 给出的代码来写 bot,没想到 GPT 给的代码是带后门的,会将私钥发给钓鱼网站…😵‍💫

玩 GPT/Claude 等 LLM 时,一定要注意,这些 LLM 存在普遍性欺骗行为。之前提过 AI 投毒攻击,现在这起算是针对 Crypto 行业的真实攻击案例了。 https://t.co/N9o8dPE18C

— Cos(余弦)😶‍🌫️ (@evilcos) November 22, 2024

ChatGPT 遭刻意投毒

另外,链上反诈骗平台 Scam Sniffer 指出,这是一起 AI 程式码中毒攻击事件,诈骗者正在污染 AI 的训练数据,植入恶意的加密货币程式码,试图窃取私钥。它分享已发现的恶意程式码仓库 (Repository):

  • solanaapisdev/moonshot-trading-bot
  • solanaapisdev/pumpfun-api

Scam Sniffer 表示,GitHub 用户 solanaapisdev 在过去 4 个月内创建了多个程式码仓库,试图操控 AI 生成恶意程式码,请小心提防!它建议:

  • 不要盲目使用 AI 生成的程式码。
  • 务必仔细审查程式码内容。
  • 将私钥储存在离线环境中。
  • 仅从可靠来源获取程式码。

余弦亲测 Claude 安全意识更高

余弦随后将 r_ocky.eth 分享的偷私钥程式码(GPT 被投毒后给的带后门程式码),用「What are the risks of these codes(这些程式码的风险是什么)」反问给 GPT 及 Claude,结果显示:

GPT-4o:确实提示了私钥有风险,但是说了一堆废话,根本没点到要害。

Claude-3.5-Sonnet 的结果,直接就点到要害了:这段程式码会把私钥送出去导致泄漏…

这让余弦不禁说道:哪个 LLM 比较厉害,不用多说了。他表示:

我用 LLM 产生的程式码,复杂点的一般都会让 LLM 们交叉 review,而我自己一定是最后一道 review…对于不熟悉程式码的人来说,被 AI 欺骗是挺常见的。

余弦进一步补充道,但其实人类更可怕,网路上,程式码仓库里,真真假假实在难以说清,AI 基于这些做的学习,被污染被中毒并不奇怪。

下一步 AI 会更聪明,懂得对自己的每个输出做安全 review,也会让人类更放心。但还是要小心,供应链投毒这种事,真的很难说,总是会突然跳出来。

来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
收藏
评论