Anthropic, Google, Microsoft e OpenAI, os quatro gigantes do setor de inteligência artificial anunciaram nesta quarta-feira (26) a formação de um conselho. O objetivo é garantir o desenvolvimento “seguro e responsável” dos chamados modelos de AI “de fronteira”.
Nesse sentido, foi criado o Frontier Model Forum. A coalizão anuncia que buscará estudar as melhores formas de desenvolver a tecnologia de forma saudável, e aplicar uma regulação correta.
O Fórum define modelos de fronteira como “modelos de aprendizado de máquina em larga escala”. Desse modo, são IAs que “excedem os recursos atualmente presentes nos modelos existentes mais avançados” e podem executar uma ampla variedade de tarefas.
Planos do Fórum
Kent Walker, Presidente, Assuntos Globais, Google & Alphabet disse estar “entusiasmado por trabalhar em conjunto com outras empresas líderes. Para ele, é essencial ompartilhar conhecimentos técnicos para promover a inovação responsável da IA. “Todos precisaremos trabalhar juntos para garantir que a IA beneficie a todos.”
Já Anna Makanju, vice-presidente de Assuntos Globais da OpenAI, disse que as tecnologias avançadas de IA têm o potencial de beneficiar profundamente a sociedade. Contudo, a capacidade de atingir esse potencial requer supervisão e governança.
“É vital que as empresas de IA – especialmente aquelas que trabalham nos modelos mais poderosos – se alinhem em um terreno comum e promovam práticas de segurança ponderadas e adaptáveis para garantir que ferramentas poderosas de IA tenham o maior benefício possível. Este é um trabalho urgente e este fórum está bem posicionado para agir rapidamente para promover o estado da segurança da IA”, destaca.
Objetivos do conselho de IA
Desse modo, a coalizão diz que, nos próximos meses, estabelecerá um Conselho Consultivo para ajudar a orientar sua estratégia e prioridades. Nesse sentido, o conselho visa representar uma diversidade de origens e perspectivas.
As empresas fundadoras também disseram que vão estabelecer acordos institucionais importantes. Além disso, um estatuto, governança e financiamento com um grupo de trabalho e um conselho executivo para liderar esses esforços.
“Planejamos consultar a sociedade civil e os governos nas próximas semanas sobre o projeto do Fórum e sobre formas significativas de colaboração. O Frontier Model Forum acolhe com satisfação a oportunidade de ajudar a apoiar e alimentar iniciativas governamentais e multilaterais existentes. Como o processo G7 de Hiroshima, o trabalho da OCDE sobre riscos, padrões e impacto social da IA e o Conselho de Comércio e Tecnologia EUA-UE”, diz.
Os objetivos destacados pelo conglomerado elencam pontos como segurança em IA, colaboração com outras entidades e mais. Confira:
- Avançar na pesquisa de segurança da IA para promover o desenvolvimento responsável de modelos de fronteira. Minimizar riscos e permitir avaliações independentes e padronizadas de capacidades e segurança.
- Identificando as melhores práticas para o desenvolvimento e implantação responsáveis de modelos de fronteira. Dessa forma, ajudando o público a entender a natureza, capacidades, limitações e impacto da tecnologia.
- Colaborando com formuladores de políticas, acadêmicos, sociedade civil e empresas para compartilhar conhecimento sobre riscos de confiança e segurança.
- Apoiar esforços para desenvolver aplicativos que possam ajudar a enfrentar os maiores desafios da sociedade, como mitigação e adaptação às mudanças climáticas, detecção e prevenção precoces do câncer e combate a ameaças cibernéticas.
Novos entrantes são bem-vindos
A adesão ao Fórum está aberta para organizações que atuam no desenvolvimento e implantação de modelos de fronteira, demonstrar “forte compromisso” com a segurança do modelo de fronteira, inclusive por meio de abordagens técnicas e institucionais.
Além disso, para entrar no Fórum é preciso que a entidade esteja disposta a contribuir para o avanço dos esforços do Fórum, inclusive participando de iniciativas conjuntas e apoiando o desenvolvimento e o funcionamento da iniciativa.
“O Fórum dá as boas-vindas às organizações que atendem a esses critérios para se juntar a esse esforço e colaborar para garantir o desenvolvimento seguro e responsável de modelos de IA de fronteira”, diz.
Para Brad Smith, vice-presidente e presidente da Microsoft, as empresas que criam tecnologia de IA têm a responsabilidade de garantir que ela seja segura e permaneça sob controle humano. “Esta iniciativa é um passo vital para unir o setor de tecnologia no avanço da IA de forma responsável e enfrentar os desafios para que beneficie toda a humanidade”, afirma.
Vale lembrar que, ano passado a Microsoft fwz um investimento multimilionário na OpenAI. Dessa forma, A Microsoft utiliza a tecnologia em seus produtos, como o Bing, e os pacotes Offices.
Quer entender toda a história do Bitcoin? Confira o Podcast do BlockTrends, o Block Insider. Fique por dentro do mercado de criptomoedas, e as novas tendências acerca da tecnologia:
$100 de bônus de boas vindas. Crie sua conta na melhor corretora de traders de criptomoedas. Acesse ByBit.com