Empresas de IA, incluindo Meta (META), falham em atender padrões de segurança, revela estudo - Investimentos e Notícias Empresas de IA, incluindo Meta (META), falham em atender padrões de segurança, revela estudo - Investimentos e Notícias
Mercado

Empresas de IA, incluindo Meta (META), falham em atender padrões de segurança, revela estudo

  • 03/12/2025 - 11h01
  • Atualizado 2 meses atrás
  • 2 min de leitura

As práticas de segurança das principais empresas de inteligência artificial, como Anthropic, OpenAI, xAI e Meta, estão “muito aquém dos padrões globais emergentes”, de acordo com uma nova edição do índice de segurança de IA do Future of Life Institute, divulgada nesta quarta-feira.

O instituto afirmou que a avaliação de segurança, conduzida por um painel independente de especialistas, constatou que, embora as empresas estivessem ocupadas em uma corrida para desenvolver a superinteligência, nenhuma possuía uma estratégia robusta para controlar sistemas tão avançados.

O estudo surge em meio a uma crescente preocupação pública sobre o impacto social de sistemas mais inteligentes que os humanos, capazes de raciocínio e pensamento lógico, após diversos casos de suicídio e automutilação terem sido associados a chatbots de IA. Chatbots são programas projetados para conversar com pessoas por texto ou voz, simulando um diálogo humano.

“Apesar da recente polêmica sobre ataques cibernéticos com inteligência artificial e sobre a IA levando pessoas à psicose e à automutilação, as empresas de IA dos EUA continuam menos regulamentadas do que restaurantes e seguem fazendo lobby contra padrões de segurança obrigatórios”, disse Max Tegmark, professor do MIT e presidente do Future of Life.

A corrida pela inteligência artificial também não mostra sinais de desaceleração, com as principais empresas de tecnologia investindo centenas de bilhões de dólares na atualização e expansão de seus esforços em aprendizado de máquina.

O Future of Life Institute é uma organização sem fins lucrativos que tem levantado preocupações sobre os riscos que as máquinas inteligentes representam para a humanidade. Fundado em 2014, recebeu apoio inicial do bilionário Elon Musk, da Tesla.

Em outubro, um grupo que incluía os cientistas Geoffrey Hinton e Yoshua Bengio pediu a proibição do desenvolvimento de inteligência artificial superinteligente até que a ciência encontre um caminho seguro para o futuro.

A xAI afirmou que “a mídia tradicional mente”, em uma resposta que pareceu ser automatizada, enquanto Anthropic, OpenAI, Google DeepMind, Meta, Z.ai, DeepSeek e Alibaba Cloud não responderam imediatamente ao pedido de comentários sobre o estudo.

(Com Reuters)

Mercado

Suprema Corte dos EUA Discute Independência do Federal Reserve em Caso Envolvendo Tentativa de Demissão de Lisa Cook por Donald Trump

Os juízes da Suprema Corte dos Estados Unidos, durante a argumentação sobre a tentativa do presidente Donald Trump de demitir a diretora do Federal Reserve Lisa Cook, pareceram abraçar a ideia de que a independência do banco central para definir a política monetária deve ser preservada e que a erosão dela apresentaria riscos econômicos reais. […]

Mercado

Impacto das Tarifas dos EUA no Comércio Global e a Reação dos Parceiros Comerciais em Davos

O uso de tarifas pelo presidente dos Estados Unidos, Donald Trump, como ferramenta de política externa deu nesta semana em Davos novo impulso aos esforços para reforçar o comércio global além dos EUA, com frustração palpável entre muitos dos principais parceiros comerciais de Washington. As tarifas voltaram ao foco quando Trump ameaçou no último fim […]