Empresas de IA, incluindo Meta (META), falham em atender padrões de segurança, revela estudo - Investimentos e Notícias Empresas de IA, incluindo Meta (META), falham em atender padrões de segurança, revela estudo - Investimentos e Notícias
Mercado

Empresas de IA, incluindo Meta (META), falham em atender padrões de segurança, revela estudo

  • 03/12/2025 - 11h01
  • Atualizado 2 meses atrás
  • 2 min de leitura

As práticas de segurança das principais empresas de inteligência artificial, como Anthropic, OpenAI, xAI e Meta, estão “muito aquém dos padrões globais emergentes”, de acordo com uma nova edição do índice de segurança de IA do Future of Life Institute, divulgada nesta quarta-feira.

O instituto afirmou que a avaliação de segurança, conduzida por um painel independente de especialistas, constatou que, embora as empresas estivessem ocupadas em uma corrida para desenvolver a superinteligência, nenhuma possuía uma estratégia robusta para controlar sistemas tão avançados.

O estudo surge em meio a uma crescente preocupação pública sobre o impacto social de sistemas mais inteligentes que os humanos, capazes de raciocínio e pensamento lógico, após diversos casos de suicídio e automutilação terem sido associados a chatbots de IA. Chatbots são programas projetados para conversar com pessoas por texto ou voz, simulando um diálogo humano.

“Apesar da recente polêmica sobre ataques cibernéticos com inteligência artificial e sobre a IA levando pessoas à psicose e à automutilação, as empresas de IA dos EUA continuam menos regulamentadas do que restaurantes e seguem fazendo lobby contra padrões de segurança obrigatórios”, disse Max Tegmark, professor do MIT e presidente do Future of Life.

A corrida pela inteligência artificial também não mostra sinais de desaceleração, com as principais empresas de tecnologia investindo centenas de bilhões de dólares na atualização e expansão de seus esforços em aprendizado de máquina.

O Future of Life Institute é uma organização sem fins lucrativos que tem levantado preocupações sobre os riscos que as máquinas inteligentes representam para a humanidade. Fundado em 2014, recebeu apoio inicial do bilionário Elon Musk, da Tesla.

Em outubro, um grupo que incluía os cientistas Geoffrey Hinton e Yoshua Bengio pediu a proibição do desenvolvimento de inteligência artificial superinteligente até que a ciência encontre um caminho seguro para o futuro.

A xAI afirmou que “a mídia tradicional mente”, em uma resposta que pareceu ser automatizada, enquanto Anthropic, OpenAI, Google DeepMind, Meta, Z.ai, DeepSeek e Alibaba Cloud não responderam imediatamente ao pedido de comentários sobre o estudo.

(Com Reuters)

Mercado

Fortescue Aprofunda Laços com a China e Registra Produção Recorde de Minério de Ferro

A companhia australiana Fortescue está aprofundando laços com a China e comprando mais equipamentos de seu principal cliente, parte da razão pela qual sua produção de minério de ferro está fluindo ininterruptamente para o país, disse o presidente-executivo Dino Otranto nesta quinta-feira. O China Mineral Resources Group (CMRG), que compra minério de ferro em nome […]

Mercado

Acordo de Livre Comércio entre União Europeia e Mercosul Pode Entrar em Vigor em Março, Apesar de Contestações

O acordo de livre comércio entre União Europeia e Mercosul provavelmente será aplicado em caráter provisório em março, disse um diplomata da UE na quinta-feira, apesar de uma contestação iminente no tribunal superior do bloco. Parlamentares da UE desferiram um golpe no controverso acordo comercial com Brasil, Argentina, Paraguai e Uruguai na quarta-feira, remetendo-o ao […]