Por que ESPECIALISTAS em inteligência artificial acreditam no fim da humanidade

Relação da humanidade com a inteligência artificial – O mundo está em alerta: a inteligência artificial (IA), que tem se desenvolvido de maneira exponencial, pode representar um risco para a sobrevivência da humanidade, se não for devidamente regulada e controlada. A hipótese de que um dia as máquinas superarão as capacidades humanas, ficando fora de controle, recusando-se a serem desligadas e, potencialmente, conduzindo a um cenário de destruição, tem alimentado debates e discussões na esfera acadêmica e além.

Por que ESPECIALISTAS em inteligência artificial acreditam no fim da humanidade
Os debates em torno da inteligência artificial concentram-se em como as máquinas podem afetar a humanidade, sendo necessário um controle adequado. Foto: divulgação

Humanidade está condenada pela inteligência artificial?

A ideia de que as máquinas podem superar as habilidades humanas e se tornar uma ameaça existencial para a humanidade não é uma mera conjectura distante. “Uma vez que tenhamos máquinas que tenham como objetivo a autopreservação, teremos um bom problema”, alertou Yoshua Bengio, especialista acadêmico em IA, durante uma conferência recente. Apesar de as máquinas com tal capacidade ainda não existirem, a imaginação humana, por meio da filosofia e da ficção científica, já tem especulado possíveis cenários de como a IA pode representar um risco à sobrevivência da humanidade.

Veja também: Como transformar um PDF com inteligência artificial estilo ChatGPT

O filósofo sueco Nick Bostrom propôs a teoria de uma “explosão de inteligência”, que ocorreria quando máquinas superinteligentes começassem a projetar outras máquinas, gerando um ciclo que foge ao controle humano. Apesar de algumas de suas ideias terem sido criticadas, Bostrom tem tido um impacto significativo no campo da IA, influenciando figuras proeminentes como Elon Musk e o falecido físico Stephen Hawking.

A imagem do ciborgue de olhos vermelhos no filme “Exterminador do Futuro” é uma ilustração popular dessa ideia de máquinas superinteligentes destruindo a humanidade. No entanto, especialistas como o grupo ativista Stop Killer Robots em seu relatório de 2021 rejeitaram tal visão como mera ficção científica. Mesmo assim, eles alertam sobre os perigos potenciais de permitir que as máquinas tenham poder de decisão sobre questões de vida ou morte.

Kerstin Dautenhahn, especialista em robótica da Universidade de Waterloo, no Canadá, compartilha uma visão semelhante, minimizando esses temores, mas admitindo que os programadores podem, de fato, programar máquinas para agir de forma prejudicial. No entanto, ela acredita que é improvável que a IA confira às máquinas uma maior capacidade de raciocínio ou o “desejo” de aniquilar a humanidade.

Diversos cenários

Um cenário mais plausível e menos hollywoodiano é o uso da IA para criar e disseminar novos vírus ou agentes químicos. Por exemplo, um experimento realizou com IA na descoberta de novos medicamentos resultou na criação de 40.000 agentes potencialmente venenosos em menos de seis horas, de acordo com a revista Nature Machine Intelligence. Joanna Bryson, especialista em IA da Hertie School em Berlim, confirmou a possibilidade de tal cenário, mas argumentou que não representa uma ameaça existencial, embora seja uma arma potencialmente terrível.

A visão de Hollywood de que as catástrofes devem ser súbitas, massivas e dramáticas contrasta com a visão de alguns especialistas que preveem o fim da humanidade como algo lento, silencioso e não definitivo. O filósofo Huw Price sugere que nossa espécie pode chegar ao fim sem um sucessor, embora existam “possibilidades menos sombrias”, onde humanos aprimorados com tecnologia avançada possam sobreviver.

Stephen Hawking, em 2014, argumentou que, em última instância, a nossa espécie não será mais capaz de competir com as máquinas de inteligência artificial, prevendo que isso poderia “significar o fim da raça humana”. Tal visão é compartilhada por Geoffrey Hinton, que dedicou sua carreira à construção de máquinas que se assemelham ao cérebro humano. Ele conjecturou recentemente que “a humanidade pode ser apenas uma fase passageira na evolução da inteligência”.

No cenário atual, onde a IA avança a passos largos, as possibilidades são diversas e, em muitos aspectos, ainda incertas. Mas uma coisa é clara: a necessidade de regulamentação e controle da IA é uma urgência que deve ser enfrentada para garantir a coexistência segura entre humanos e máquinas.

Veja também: Deu a LOUCA na Apple? iPhone 13 tem preço histórico com 50% OFF