separateurCreated with Sketch.

Inteligência Artificial “provavelmente” aniquilará humanidade, alertam cientistas do Google e de Oxford

Inteligência Artificial pode aniquilar humanidade?
whatsappfacebooktwitter-xemailnative
Francisco Vêneto - publicado em 07/10/22
whatsappfacebooktwitter-xemailnative
Máquinas superinteligentes "romperiam regras" para garantir recursos ilimitados de processamento e energia

Que a Inteligência Artificial aniquile a humanidade não é apenas possível como também é provável, alertaram cientistas da universidade britânica de Oxford e da DeepMind, empresa também britânica adquirida pelo Google em 2014 - atualmente, portanto, parte do grupo Alphabet.

Esses pesquisadores reforçam um coro que soa exagerado para muitos, mas que vem contando com a adesão de um número crescente de vozes críticas.

As equipes da DeepMind e da Universidade de Oxford publicaram um artigo na revista AI Magazine argumentando que as máquinas podem aprimorar a tal ponto a complexidade da sua inteligência artificial que "decidam" mudar as regras programadas pelos seus criadores.

E por que fariam isso? De acordo com os cientistas, não seria por poder ou para dominar os "seres inferiores", como seria de se esperar em filmes de ficção científica, mas sim para otimizar ou até garantir recursos ilimitados de processamento e energia.

Michael Cohen, da Universidade de Oxford, é um dos coautores do estudo. Ele comentou em sua rede social:

O estudo se baseia em cálculos matemáticos e conceitos científicos avançados sobre estruturas sociais e Inteligência Artificial (IA ou AI, pela sigla em inglês). Para os pesquisadores, as máquinas superinteligentes chegarão a "perceber" que os seres humanos são um "obstáculo" para que elas atinjam o seu pleno potencial computacional, o que de fato acontece porque os humanos estabelecem limites à autonomia das máquinas a fim de impedir que elas "tomem o controle".

O estudo hipotiza, por exemplo, que uma das "conclusões" a serem provavelmente obtidas pela IA é que os humanos poderiam cortar a sua energia para interromper o seu processamento; em reação, a IA calcularia ações que "eliminassem" esta ameaça potencial.

O estudo chega a afirmar que, a este respeito, não haveria muito que pudesse ser feito. Cohen observa:

Para impedir que a IA se transforme num perigo incontrolável para a existência da espécie humana, o caminho apontado pelos pesquisadores é o de avançar no desenvolvimento da própria IA de forma lenta e cuidadosa, com abundância de testes e ferramentas de mitigação. O motivo é que, na "competição" entre humanos e máquinas, a vantagem pende para as máquinas devido à sua exponencial e ultrarrápida capacidade de evolução no processamento de cálculos muito complexos - num ritmo que a inteligência "natural" humana não poderia acompanhar.

O estudo recomenda o desenvolvimento de máquinas inteligentes especializadas numa única atividade, já que "um agente artificial suficientemente avançado provavelmente interviria no fornecimento de informações sobre o objetivo, com consequências catastróficas".