‘Perigo iminente’: especialistas alertam sobre riscos da IA na ONU
Um coletivo de líderes globais – abrangendo cientistas, especialistas em tecnologia, figuras políticas e laureados com o Prêmio Nobel – emitiu um alerta severo sobre os “riscos inéditos” que o desenvolvimento atual da inteligência artificial (IA) representa para a humanidade.
Essa advertência foi detalhada em uma carta aberta, assinada por mais de 200 personalidades e tornada pública na última segunda-feira (22). O documento, intitulado “Apelo Global por Limites para a IA”, foi lido pela vencedora do Prêmio Nobel da Paz de 2021, Maria Ressa, na Assembleia Geral da Organização das Nações Unidas (ONU), realizada naquela semana em Nova York, Estados Unidos.
Nele, os subscritores pedem ações regulatórias imediatas sobre a IA, enfatizando a necessidade de intervir antes que seja tarde demais.
Perigos Destacados pelos Signatários
Embora reconheça o potencial da tecnologia para aprimorar o bem-estar humano, a carta rapidamente foca nos riscos, alertando que a IA em breve superará as capacidades humanas, gerando perigos significativos.
Os autores da carta detalham uma série de ameaças decorrentes do uso descontrolado e não regulamentado da IA:
- Desinformação e Direitos Humanos: Exposição a desinformação disseminada e violações sistemáticas dos direitos humanos.
- Impacto Econômico e Social: Risco de desemprego em massa e manipulação em grande escala (inclusive de crianças).
- Segurança Global: Citações a pandemias criadas artificialmente e ameaças à segurança tanto nacional quanto internacional.
- Sistemas Autônomos Perigosos: Preocupação com o comportamento enganoso e destrutivo de sistemas avançados de IA que, apesar disso, mantêm a autonomia para decidir.
- Armamento Letal: Alerta específico sobre o perigo de a tecnologia assumir o controle de arsenais nucleares ou outros tipos de sistemas de armas autônomas letais.
Pedidos de Ação e Regulamentação
Diante desses riscos, o grupo apela aos governos para que ajam “antes que a oportunidade para uma intervenção eficaz se esgote”. O pedido central é a criação de acordos válidos mundialmente, estabelecendo limites nítidos para prevenir os perigos associados à tecnologia.
A carta defende que esses parâmetros devem ser aplicados de forma uniforme aos fornecedores de IA, garantindo sempre um controle humano significativo. Além disso, sugere que essa regulamentação, acompanhada de “mecanismos de fiscalização rigorosos”, seja implementada até o final de 2026 — citando que alguns especialistas preveem a chegada da superinteligência já em 2027.
Quem Apoiou o Apelo
Entre os mais de 200 signatários que subscreveram o documento em prol de medidas contra o uso perigoso da IA, estão figuras proeminentes como os chamados “padrinhos da IA”, Geoffrey Hinton e Yoshua Bengio, o autor best-seller Yuval Noah Harari, e o ator Stephen Fry. Também assinaram o documento dez ganhadores do Prêmio Nobel, ex-chefes de estado (como Mary Robinson da Irlanda e Juan Manuel Santos da Colômbia), e pesquisadores de IA de destaque com experiência em empresas como OpenAI, Microsoft, Google DeepMind e Anthropic.
Este apelo junta-se a outras iniciativas de destaque, como uma carta similar de 2023, assinada por mais de mil pessoas, incluindo Elon Musk, que solicitava a suspensão temporária das pesquisas avançadas em IA.
Sem comentários! Seja o primeiro.