Trader faz US$ 6.500 virar US$ 5,6 milhões com criptomoedas meme do Trump após ele falar bem do mercado
A descoberta de uma Inteligência artificial “suprema” pode ter desencadeado o curto período de demissão do Sam Altman, da OpenAI. Antes da novela, vários pesquisadores da equipe escreveram uma carta ao conselho de administração alertando sobre uma descoberta poderosa em inteligência artificial. Trata-se da AGI, uma super inteligência artificial.
Nesse sentido, essa inteligência artificial, segundo eles, poderia ameaçar a humanidade, conforme informado por duas pessoas familiarizadas com o assunto à Reuters. A carta e o algoritmo de IA, não relatados anteriormente, foram desenvolvimentos-chave antes da destituição de Altman pelo conselho, que é o rosto da IA gerativa.
O conceito de super inteligência artificial refere-se a uma inteligência artificial com a mesma capacidade que o cérebro humano, ou até maior. Atualmente, as inteligências artificiais recebem “inputs” – ou comandos -, analisam um banco de dados e organizam os ‘outputs’ – ou respostas – em forma de texto, imagens ou vídeos. A tecnologia é como um papagaio, que repete com perfeição.
Vale ressaltar que, a inteligência artificial “super inteligente”, ou inteligência geral artificial (AGI), já foi assunto de uma postagem no site da OpenAI. A empresa discutiu as possíveis vantagens, bem como os possíveis perigosos de uma tecnologia desse calibre.
“Agora é um bom momento para começar a pensar na governação da superinteligência. Futuros sistemas de IA dramaticamente mais capazes do que a AGI.”, diz a OpenAI no seu blog, em postagem datada de maio de 2023.
“Dado o cenário que vemos agora, é concebível que, nos próximos dez anos, os sistemas de IA excedam o nível de competências especializadas na maioria dos domínios. Desse modo, realizem tantas atividades produtivas como uma das maiores empresas atuais.”
Em termos de potenciais vantagens e desvantagens, a superinteligência será mais poderosa do que outras tecnologias com as quais a humanidade teve de enfrentar no passado, segundo a postagem assinada por Sam Altman, Greg Brockman e Ilya Sutskever.
“Podemos ter um futuro dramaticamente mais próspero; mas temos que gerenciar o risco para chegar lá. Dada a possibilidade de risco existencial, não podemos ser apenas reativos.
“A energia nuclear é um exemplo histórico comumente usado de tecnologia com esta propriedade; a biologia sintética é outro exemplo”, diz. “Devemos também mitigar os riscos da atual tecnologia de IA, mas a superinteligência exigirá tratamento e coordenação especiais.”
E pelo jeito, é mais fácil falar, ou escrever, do que colocar em prática. As fontes da Reuters citaram a carta como um fator entre uma lista mais longa de queixas do conselho que levaram à demissão de Altman. Entre as quais estavam preocupações sobre a divulgação de diversos avanços antes de entender as consequências.
A Reuters informou que não conseguiu revisar uma cópia da carta. Os funcionários que escreveram a carta não responderam aos pedidos de comentários. Depois de ser contatada pela Reuters, a OpenAI, que se recusou a comentar, reconheceu em uma mensagem interna para os funcionários um projeto chamado Q*. Além disso, reconheceu uma carta ao conselho antes dos eventos do fim de semana, disse uma das pessoas.
Um porta-voz da OpenAI disse que a mensagem, enviada pela executiva Mira Murati, alertou os funcionários sobre certas histórias da mídia sem comentar sobre sua precisão.
Alguns na OpenAI acreditam que o Q* (pronunciado Q-Star) poderia ser um avanço na busca da startup por inteligência geral artificial (AGI). Dado vastos recursos de computação, o novo modelo foi capaz de resolver certos problemas matemáticos com raciocínio à nível de seres-humanos.
Embora apenas realizando matemática no nível de alunos do ensino fundamental, passar nesses testes fez os pesquisadores muito otimistas sobre o sucesso futuro do Q*, disse a fonte.
Os pesquisadores também sinalizaram o trabalho de uma equipe de “cientistas de IA”, cuja existência várias fontes confirmaram. O grupo, formado pela combinação das equipes anteriores “Code Gen” e “Math Gen”, estava explorando como otimizar modelos de IA existentes para melhorar seu raciocínio e eventualmente realizar trabalhos científicos, disse uma das pessoas.
$100 de bônus de boas vindas. Crie sua conta na melhor corretora de traders de criptomoedas. Acesse ByBit.com
Diversas memecoins já estão buscando surfar a narrativa da história.
Em conversa com BlockTrends, Camila Ramos conta sobre métricas que uma testnet precisa atingir antes…
Para Campbell, do ponto de vista institucional, o staking é uma excelente maneira de gerar…
“Hoje você vê que essas mesmas instituições já estão criando os seus próprios times de…
O GPT-4o (o de Omni) leva a descrição de “um passo significativo para uma interação…
O volume de negociação contabiliza apenas as compras e vendas à vista, e exclui mesas…
Ao clicar em “Aceitar”, você concorda com o armazenamento de cookies no seu dispositivo para melhorar a navegação no site e ajudar em nossos esforços de marketing.
Política de Privacidade