Participe da
Comunidade Ícone Whatsapp
Notícias

Como as IAs podem roubar suas criptomoedas, e como prevenir

O artigo da SlowMist, escrito por uma equipe de especialistas em segurança cibernética, argumenta que os LLMs, quando usados sem restrições, oferecem aos adversários “todas as avenidas para tentar roubar suas criptomoedas”.

A ascensão dos Large Language Models (LLMs, ou Modelos de Linguagem de Grande Escala) há meses transforma a maneira como interagimos com a tecnologia. Mas as novas IAS também trouxeram novos riscos, especialmente para o ecossistema das criptomoedas.

Entre para o GRUPO GRATUITO DE WHATSAPP do BlockTrends e fique por dentro de tudo sobre Bitcoin.

Um artigo da SlowMist, empresa líder em segurança cibernética para criptoativos, alerta para os perigos de LLMs não restritos. O artigo compara-os à “Caixa de Pandora” da mitologia grega.

O texto detalha como esses modelos podem ser explorados por hackers para roubar criptoativos, gerar notícias falsas e até mesmo criar conteúdo ilegal. Com o mercado de criptomoedas em alta, o Bitcoin atingindo US$ 105.592,66 em 2025 e a adoção de IAs crescendo, os riscos associados aos LLMs estão se tornando mais urgentes.

Faça parte da Comunidade Exclusiva PRO do BlockTrends.APP e lucre em cripto com relatórios semanais, análises diárias, carteiras recomendadas e lives.

O alerta da SlowMist sobre IAs no mercado de criptomoedas

O artigo da SlowMist, escrito por uma equipe de especialistas em segurança cibernética, argumenta que os LLMs, quando usados sem restrições, oferecem aos adversários “todas as avenidas para tentar roubar suas criptomoedas”.

As LLMs são modelos de inteligência artificial (IA) de grande escala. Em outras palavras, são treinados para compreender e gerar linguagem humana, como texto áudio ou imagem. Como por exemplo o ChatGPT.

A metáfora da Caixa de Pandora é apropriada. Assim como o mito grego, onde a abertura da caixa libera males incontáveis, o uso indiscriminado de LLMs pode desatar uma série de ameaças.

O texto destaca que “o único que um hacker remoto precisa é você estabelecer uma linha para um dispositivo conectado, a mesma linha pela qual o adversário pode então tentar atacá-lo”.

Os riscos específicos mencionados incluem a extração de informações sensíveis. Como por exemplo, os adversários podem usar LLMs para inferir informações confidenciais, como chaves privadas ou frases-semente, que são essenciais para acessar carteiras de cripto.

Além disso, geração de conteúdo malicioso também é um problema. As LLMs podem criar notícias falsas, sites de phishing e até instruções para exploits.

Um exemplo são as centenas de transmissões ao vivo no YouTube que muito se assemelham a uma figura proeminente como Elon Musk a falar sobre distribuição de criptomoedas. Contudo, na realidade, são IAs que simulam essas lives, e induzem as vpitimas ao erro.

Por fim, o artigo destaca ataques internos e externos. Ou seja, durante todo o ciclo de vida dos LLMs, desde o pré-treinamento até o deployment, adversários podem explorar vulnerabilidades internas (como dados de treinamento comprometidos) e externas (como interações com usuários), conforme detalhado no mesmo artigo da arxiv.org.

Casos reais e exemplos de riscos

O artigo da SlowMist cita exemplos práticos de como LLMs podem ser explorados. Por exemplo, um estudo da arxiv.org menciona que adversários podem usar LLMs para criar sites de phishing que imitam perfeitamente exchanges de cripto, como a Binance ou a Coinbase, enganando usuários a revelar suas chaves privadas.

Outro caso envolve a geração de notícias falsas, como a alegação de que um projeto de cripto sofreu um hack. Desse modo, causando pânico no mercado e permitindo que manipuladores lucrem com a volatilidade.

O artigo da SlowMist também sugere contramedidas para mitigar os riscos. Ele recomenda que usuários mantenham suas chaves privadas offline, as famosas carteiras frias.

Além disso, o texto enfatiza a importância de restringir o acesso dos LLMs a dados sensíveis. Uma abordagem que está sendo adotada por empresas como a xAI, que implementou controles rígidos no Grok para prevenir abusos.

No entanto, os desafios permanecem. Um artigo da HackerNoon de 2023 já discutia o potencial dos LLMs para auditar contratos inteligentes. Mas alerta que eles ainda têm uma alta taxa de falsos positivos, o que pode levar a vulnerabilidades não detectadas.

Potencialize sua jornada cripto na OKX. Junte-se a 60 milhões de usuários e acesse bots de trading de alto rendimento. Acesse: okx.com