Empresas de IA, incluindo Meta (META), falham em atender padrões de segurança, revela estudo - Investimentos e Notícias Empresas de IA, incluindo Meta (META), falham em atender padrões de segurança, revela estudo - Investimentos e Notícias
Mercado

Empresas de IA, incluindo Meta (META), falham em atender padrões de segurança, revela estudo

  • 03/12/2025 - 11h01
  • Atualizado 2 meses atrás
  • 2 min de leitura

As práticas de segurança das principais empresas de inteligência artificial, como Anthropic, OpenAI, xAI e Meta, estão “muito aquém dos padrões globais emergentes”, de acordo com uma nova edição do índice de segurança de IA do Future of Life Institute, divulgada nesta quarta-feira.

O instituto afirmou que a avaliação de segurança, conduzida por um painel independente de especialistas, constatou que, embora as empresas estivessem ocupadas em uma corrida para desenvolver a superinteligência, nenhuma possuía uma estratégia robusta para controlar sistemas tão avançados.

O estudo surge em meio a uma crescente preocupação pública sobre o impacto social de sistemas mais inteligentes que os humanos, capazes de raciocínio e pensamento lógico, após diversos casos de suicídio e automutilação terem sido associados a chatbots de IA. Chatbots são programas projetados para conversar com pessoas por texto ou voz, simulando um diálogo humano.

“Apesar da recente polêmica sobre ataques cibernéticos com inteligência artificial e sobre a IA levando pessoas à psicose e à automutilação, as empresas de IA dos EUA continuam menos regulamentadas do que restaurantes e seguem fazendo lobby contra padrões de segurança obrigatórios”, disse Max Tegmark, professor do MIT e presidente do Future of Life.

A corrida pela inteligência artificial também não mostra sinais de desaceleração, com as principais empresas de tecnologia investindo centenas de bilhões de dólares na atualização e expansão de seus esforços em aprendizado de máquina.

O Future of Life Institute é uma organização sem fins lucrativos que tem levantado preocupações sobre os riscos que as máquinas inteligentes representam para a humanidade. Fundado em 2014, recebeu apoio inicial do bilionário Elon Musk, da Tesla.

Em outubro, um grupo que incluía os cientistas Geoffrey Hinton e Yoshua Bengio pediu a proibição do desenvolvimento de inteligência artificial superinteligente até que a ciência encontre um caminho seguro para o futuro.

A xAI afirmou que “a mídia tradicional mente”, em uma resposta que pareceu ser automatizada, enquanto Anthropic, OpenAI, Google DeepMind, Meta, Z.ai, DeepSeek e Alibaba Cloud não responderam imediatamente ao pedido de comentários sobre o estudo.

(Com Reuters)

Mercado

Acordo Comercial entre UE e Mercosul: Aplicação Provisória e Desafios Jurídicos Potenciais

Um diplomata da União Europeia disse nesta quinta-feira que o acordo comercial da UE com o Mercosul será aplicado provisoriamente assim que o primeiro país do Mercosul o ratificar, acrescentando que provavelmente seria o Paraguai em março. Na quarta-feira, parlamentares da União Europeia votaram para contestar o acordo de livre comércio com o Mercosul no […]

Mercado

Oscilações nos Contratos Futuros de Minério de Ferro com Influência dos Embarques Australianos e Política Monetária Chinesa

Os índices de referência dos contratos futuros de minério de ferro oscilaram nesta quinta-feira, conforme investidores pesavam os efeitos dos embarques robustos das mineradoras australianas contra o suporte da política monetária chinesa. O contrato de maio do minério de ferro mais negociado na Bolsa de Mercadorias de Dalian (DCE) da China encerrou a sessão do […]

Mercado

Suprema Corte dos EUA Discute Independência do Federal Reserve em Caso Envolvendo Tentativa de Demissão de Lisa Cook por Donald Trump

Os juízes da Suprema Corte dos Estados Unidos, durante a argumentação sobre a tentativa do presidente Donald Trump de demitir a diretora do Federal Reserve Lisa Cook, pareceram abraçar a ideia de que a independência do banco central para definir a política monetária deve ser preservada e que a erosão dela apresentaria riscos econômicos reais. […]