Participe da
Comunidade Ícone Whatsapp
Tecnologia

OpenAI, Google, Microsoft e Anthropic formam conselho de IA

A coalizão anuncia que buscará estudar as melhores formas de desenvolver a tecnologia de forma saudável, e aplicar uma regulação correta.

Anthropic, Google, Microsoft e OpenAI, os quatro gigantes do setor de inteligência artificial anunciaram nesta quarta-feira (26) a formação de um conselho. O objetivo é garantir o desenvolvimento “seguro e responsável” dos chamados modelos de AI “de fronteira”.

Nesse sentido, foi criado o Frontier Model Forum. A coalizão anuncia que buscará estudar as melhores formas de desenvolver a tecnologia de forma saudável, e aplicar uma regulação correta.

Entre na comunidade BLOCKTRENDS PRO com 15% OFF e receba +20 cursos, análises diárias, relatórios semanais, lives e mais.

O Fórum define modelos de fronteira como “modelos de aprendizado de máquina em larga escala”. Desse modo, são IAs que “excedem os recursos atualmente presentes nos modelos existentes mais avançados” e podem executar uma ampla variedade de tarefas.

Planos do Fórum

Kent Walker, Presidente, Assuntos Globais, Google & Alphabet disse estar “entusiasmado por trabalhar em conjunto com outras empresas líderes. Para ele, é essencial ompartilhar conhecimentos técnicos para promover a inovação responsável da IA. “Todos precisaremos trabalhar juntos para garantir que a IA beneficie a todos.”

Já Anna Makanju, vice-presidente de Assuntos Globais da OpenAI, disse que as tecnologias avançadas de IA têm o potencial de beneficiar profundamente a sociedade. Contudo, a capacidade de atingir esse potencial requer supervisão e governança.

“É vital que as empresas de IA – especialmente aquelas que trabalham nos modelos mais poderosos – se alinhem em um terreno comum e promovam práticas de segurança ponderadas e adaptáveis ​​para garantir que ferramentas poderosas de IA tenham o maior benefício possível. Este é um trabalho urgente e este fórum está bem posicionado para agir rapidamente para promover o estado da segurança da IA”, destaca. 

Objetivos do conselho de IA

Desse modo, a coalizão diz que, nos próximos meses, estabelecerá um Conselho Consultivo para ajudar a orientar sua estratégia e prioridades. Nesse sentido, o conselho visa representar uma diversidade de origens e perspectivas. 

As empresas fundadoras também disseram que vão estabelecer acordos institucionais importantes. Além disso, um estatuto, governança e financiamento com um grupo de trabalho e um conselho executivo para liderar esses esforços.

“Planejamos consultar a sociedade civil e os governos nas próximas semanas sobre o projeto do Fórum e sobre formas significativas de colaboração. O Frontier Model Forum acolhe com satisfação a oportunidade de ajudar a apoiar e alimentar iniciativas governamentais e multilaterais existentes. Como o processo G7 de Hiroshima, o trabalho da OCDE sobre riscos, padrões e impacto social da IA ​​e o Conselho de Comércio e Tecnologia EUA-UE”, diz.

Os objetivos destacados pelo conglomerado elencam pontos como segurança em IA, colaboração com outras entidades e mais. Confira:

  • Avançar na pesquisa de segurança da IA para promover o desenvolvimento responsável de modelos de fronteira. Minimizar riscos e permitir avaliações independentes e padronizadas de capacidades e segurança.
  • Identificando as melhores práticas para o desenvolvimento e implantação responsáveis de modelos de fronteira. Dessa forma, ajudando o público a entender a natureza, capacidades, limitações e impacto da tecnologia.
  • Colaborando com formuladores de políticas, acadêmicos, sociedade civil e empresas para compartilhar conhecimento sobre riscos de confiança e segurança.
  • Apoiar esforços para desenvolver aplicativos que possam ajudar a enfrentar os maiores desafios da sociedade, como mitigação e adaptação às mudanças climáticas, detecção e prevenção precoces do câncer e combate a ameaças cibernéticas.

Novos entrantes são bem-vindos

A adesão ao Fórum está aberta para organizações que atuam no desenvolvimento e implantação de modelos de fronteira, demonstrar “forte compromisso” com a segurança do modelo de fronteira, inclusive por meio de abordagens técnicas e institucionais.

Além disso, para entrar no Fórum é preciso que a entidade esteja disposta a contribuir para o avanço dos esforços do Fórum, inclusive participando de iniciativas conjuntas e apoiando o desenvolvimento e o funcionamento da iniciativa.

“O Fórum dá as boas-vindas às organizações que atendem a esses critérios para se juntar a esse esforço e colaborar para garantir o desenvolvimento seguro e responsável de modelos de IA de fronteira”, diz.

Para Brad Smith, vice-presidente e presidente da Microsoft, as empresas que criam tecnologia de IA têm a responsabilidade de garantir que ela seja segura e permaneça sob controle humano. “Esta iniciativa é um passo vital para unir o setor de tecnologia no avanço da IA ​​de forma responsável e enfrentar os desafios para que beneficie toda a humanidade”, afirma.

Vale lembrar que, ano passado a Microsoft fwz um investimento multimilionário na OpenAI. Dessa forma, A Microsoft utiliza a tecnologia em seus produtos, como o Bing, e os pacotes Offices.

Quer entender toda a história do Bitcoin? Confira o Podcast do BlockTrends, o Block Insider. Fique por dentro do mercado de criptomoedas, e as novas tendências acerca da tecnologia:

$100 de bônus de boas vindas. Crie sua conta na melhor corretora de traders de criptomoedas. Acesse ByBit.com

Notícias relacionadas