Cientistas e líderes do setor, como CEOs da OpenAI e DeepMind, assinam declaração alertando que prioridade global deve ser mitigar ameaças que podem se equivaler a uma guerra nuclear ou pandemia.
Especialistas, executivos,
cientistas e outras personalidades assinaram declaração divulgada nesta
terça-feira (30/05) pelo Center for AI Safety (CAIS), uma entidade que reúne
vários grupos em nome da segurança na área da inteligência artificial (IA),
alertando para as potenciais ameaças que essas novas tecnologias podem
representar.
"Mitigar os riscos de
extinção pela IA deve ser uma prioridade global, ao lado de outros riscos em
escala social como pandemias e guerras nucleares", afirma a frase única
que compõe a declaração.
O texto de apresentação da
mensagem – duas vezes mais longo do que a própria declaração – afirma que
especialistas em IA, jornalistas, tomadores de decisões e o público geral
"discutem cada vez mais uma ampla variedade de riscos importantes e
urgentes da IA".
"Mesmo assim, pode ser
difícil expressar preocupações sobre alguns dos riscos mais graves da IA. A
curta declaração tem como objetivo superar esse obstáculo e abrir
discussões", afirma o texto de apresentação.
"Da mesma forma, visa
criar conhecimento comum sobre o grande número de especialistas e figuras públicas
que também levam a sério alguns dos riscos mais graves da IA."
Signatários ilustres
Entre as personalidades que
assinam a declaração estão dois dos três pesquisadores considerados os
"padrinhos" da IA, Geoffrey Hinton e Yoshua Bengio, cujos nomes fora
colocados no topo da lista de signatários.
O terceiro deles, Yann Le
Cun, que atualmente trabalha para a empresa administradora da rede social
Facebook, a Meta, não assinou a declaração.
Outros signatários de peso
são os CEOs do DeepMind do Google, Demis Hassasbis, além de Sam Altman, da
OpenAI – a empresa criadora da ferramenta ChatGPT –, juntamente com Dario
Amodei, diretor-executivo da companhia da IA Anthropic.
Também assinaram o texto
vários acadêmicos e empresários, muitos dos quais trabalham em empresas como
Google e Microsoft, além de personalidades como o neurocientista e apresentador
de podcast Sam Harris, a ex-presidente da Estônia Kersti Kaljulaid e a cantora
pop canadense Grimes. Esta úlltima é mãe de dois filhos do bilionário Elon Musk,
que em março, junto de outros especialistas do setor tecnológico, já havia
pedido uma "pausa na inteligência artificial", alertando para
"grandes riscos para humanidade".
UE avança regulamentações
A declaração foi divulgada
na mesma data de uma reunião do Conselho EUA-União Europeia de Comércio e
Tecnologia na Suécia, onde políticos e expoentes do setor de tecnologia debatem
possíveis regulamentações da IA dos dois lados do Atlântico.
Nesta terça-feira,
autoridades da UE disseram que o chefe do setor tecnológico do bloco dos 27
países, Thierry Breton, se reunirá pessoalmente no próximo mês com Sam Altman,
da OpenAI, em San Francisco, nos Estados Unidos. Ambos discutirão de que forma
a empresa deverá implementar a primeira tentativa de regular a IA na Europa,
que deve entrar em vigor em 2026.
Apesar de ter defendido
recentemente em várias ocasiões a necessidade de se impor um regulamentação da
IA, Altman ameaçou remover sua empresa da Europa na primeira vez em que
Bruxelas sinalizou essas iniciativas, dizendo que as propostas iam longe
demais. Mais tarde, ele acabaria retrocedendo.
Como a inteligência
artificial ajuda a monitorar lobos
A declaração de uma só frase
sobre as ameaças representadas pela IA não especifica os potenciais riscos e o
quão grave seriam estes. Também não sugere como mitigá-los ou quem deveria se
encarregar dessa tarefa.
Em comentários recentes
divulgados pelo Center for AI Safety, Yoshua Bengio, um dos três
"padrinhos" da IA que dirige o Instituto Montreal para Algoritmos de
Aprendizado, argumenta que as inteligências artificiais podem representar uma
ameaça existencial para a humanidade.
Ele afirma que as IAs podem
se tornar capazes de perseguir metas e realizar ações no mundo real, algo ainda
não tentado fora de ambientes fechados como alguns jogos de xadrez online.
Essas ações, segundo afirma, poderão estar em conflito com valores humanos.
Possíveis ameaças da IA
Bengio identifica quatro
maneiras através das quais as IAs podem buscar objetivos de modo a entrarem em
conflito com os interesses humanos. O principal destes seria a própria
humanidade, como a perspectiva de agentes humanos com intenções malévolas instruindo
a IA para fazer algo ruim.
A IA pode ainda receber
orientações imprecisamente especificadas ou descritas a partir das quais podem
surgir erros de conclusão com base nessas instruções. A terceira hipótese é a
de que a IA pode criar seus próprios subobjetivos ao buscar uma meta mais ampla
criada por um humano que pode ajudar a atingir o objetivo final, gerando riscos
graves.
Por último, Bengio afirma
que as IAs podem acabar desenvolvendo uma espécie de pressão evolucionária de
modo a se comportarem de maneira mais autocentrada, como fazem os animais na
natureza, de modo a assegurar sua própria sobrevivência.
Para mitigar esses riscos,
Bengio sugere novas pesquisas em segurança, tanto no nível técnico quanto
político. Ele também recomenda proibir, ao menos por enquanto, as IAs de
buscarem objetivos e ações no mundo real, e diz que "é desnecessário
afirmar" que armas letais autônomas devem ser "totalmente
banidas".
DW (AFP, AP, Reuters)
![]() |
Para saber mais, clique aqui. |
![]() |
Para saber mais sobre o livro, clique aqui. |
![]() |
Para saber mais sobre o livro, clique aqui. |
![]() |
Para saber mais clique aqui. |
![]() |
Para saber mais sobre o livro, clique aqui. |
![]() |
Para saber mais sobre os livros, clique aqui. |
![]() |
Para saber mais sobre a Coleção, clique aqui. |
![]() | ||||||||||||||||||||||||||||||
Para saber mais sobre o livro, clique aqui. - - - - - - No mecanismo de busca do site amazon.com.br, digite "Coleção As mais belas lendas dos índios da Amazônia” e acesse os 24 livros da coleção. Ou clique aqui. No mecanismo de busca do site amazon.com.br, digite "Antônio Carlos dos Santos" e acesse dezenas de obras do autor. Ou clique aqui.
-----------
|