Singularidade é o termo usado pelo famoso futurólogo Ray Kurzweil para definir o momento em que a inteligência computacional ultrapassa a inteligência dos humanos. Em seu livro A singularidade está próxima, ele não só define o termo como caracteriza o fenômeno e faz uma série de previsões. Vamos ter de aguardar para ver se vão se concretizar. Uma delas é que até o final dos anos 2020 os computadores deverão passar no “teste de Turing” indicando uma inteligência computacional não distinguível dos humanos biológicos. Entre outras, Kuzweil diz que haverá uma fusão da inteligência computacional com a biológica, tornando o cérebro humano muito mais rápido e eficiente. O livro tem como base a aceleração exponencial da tecnologia computacional que vimos no século 20 e início do 21. Some-se a isso o fato de que estamos à ponto de entrar na era dos computadores quânticos que deverão multiplicar ainda mais a capacidade tecnológica disponível para os humanos.
A pergunta que faço neste artigo é: o que significam os algoritmos computacionais gerados pelos humanos para o avanço da inteligência como um todo? Ou seja, não só dos humanos, mas também na inteligência coletiva.
Em um outro artigo sobre o retorno dos polímatas remeto o leitor a uma publicação na revista Nature que demonstra que o conhecimento está aumentando exponencialmente. Porém, isto ocorre com diminuição no nível de disrupção na ciência desde a década de 1940. Parece contraditório, mas não é. Isso se deve ao fato da combinação desta enorme quantidade de conhecimento ter potencial de gerar infinitas inovações, mesmo que novidades científicas não apareçam com tanta frequência.
Nesse panorama, o desenvolvimento tecnológico parece ficar desgarrado da ciência básica por longos períodos. Mas não devemos tirar conclusões precipitadas: se não houver disrupção (no caso da IA a computação quântica é uma delas), as combinações entre as peças de conhecimento ficarão cada vez mais enfraquecidas e diminuirá o ritmo da inovação. A ciência básica é crucial, já que é a fonte de disrupções no conhecimento que levam a múltiplas cadeias de inovação tecnológica.
Atualmente, a sociedade parece assustada com a evolução da Inteligência Artificial (IA), que inunda a nossa vida através dos contatos que temos com a internet. Nessa sensação de medo e desconfiança, há um quê da era atômica das décadas de 1950 e 60. As consequências mais temidas são os efeitos sobre a educação e o direito.
No caso da IA, a discussão tem sido predominante no sentido de comparar a inteligência humana com a computacional. Mas há outros tipos de inteligência, como abordei nos três artigos anteriores. Elas raramente, ou nunca, entram nessa discussão. Lembro que nesses artigos tentei expandir o conceito de inteligência, caracterizando-a através de cinco propriedades:
1) armazenar informação;
2) processá-la;
3) se perceber como indivíduo;
4) decidir e
5) gerar propriedades emergentes na interação entre indivíduos.
Partindo dos vírus e bactérias, passando pelas plantas, até chegar na inteligência coletiva, neste último artigo da série tento contextualizar a IA no âmbito inteligência coletiva. Respondendo à pergunta que já deve ter surgido na mente do leitor, sobre se a IA apresenta tais características, a resposta é SIM para as quatro primeiras características. O problema está na quinta, a geração de propriedades emergentes a partir da interação entre indivíduos. Nós podemos ligar computadores em rede e isso nos ajuda muito em nossas atividades. Mas isto significa que os computadores propriamente ditos se tornam mais inteligentes? Se pensarmos na internet como um todo, podemos até ter a impressão de que sim, pois o mundo mudou – e continua mudando rápido – por causa das redes sociais. Efeitos como os que impactam a política e mudam a opinião pública, tendem a nos iludir, fazendo pensar que sejam inteligência computacional. Mas não são. São apenas efeitos de massa sobre os indivíduos humanos. Se todos os computadores forem desligados e voltarmos a nos corresponder por cartas em papel enviadas pelo correio, os efeitos emergentes da inteligência humana em massa continuarão existindo, só que o processo será bem mais lento. Se considerarmos como coletivamente inteligente uma população de telefones celulares, cujo número já é o mesmo que indivíduos na Terra, teremos de admitir que as canetas, papel e correio, elementos análogos aos computadores que nos permitem escrever e enviar mensagens, seriam também coletivamente inteligentes.
Em outras palavras, a computação que temos, apesar dos resultados impressionantes da IA generativa (os chats que nos respondem coisas como se fossem um indivíduo) são completamente dependentes dos humanos. O conhecimento foi produzido por nós, os computadores também. E temos o poder de desligar da tomada quando quisermos. São concebíveis situações de eventos do tipo descrito pelo escritor de ficção científica Arthur Clark em 2001 uma odisseia no espaço, em que o computador Hal 9000 assume o comando da nave, se sobrepõe ao humano comandante Dave, e envia o astronauta numa viagem através de uma singularidade. No fim, parece que é a isto que o medo da singularidade, no fundo, se refere: computadores capazes de assumir o comando. Porém, do ponto de vista individual ainda estamos presos no que outro grande autor de ficção científica (Isaac Azimov) descreveu na sua série Eu-Robô. Ele propõe as três leis da robótica, usadas até hoje.
1ª lei: Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal;
2ª lei: Um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que tais ordens contrariem a Primeira Lei;
3ª lei: Um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira e Segunda Leis;
Estas três leis funcionam como um sistema de segurança que garante que os robôs sejam mantidos sob controle dos humanos. Mas mais tarde, Azimov criou a Lei Zero: “Um robô não pode fazer mal à humanidade e nem, por inação, permitir que ela sofra algum mal” que nos tempos de hoje é atualíssima e se articula com a inteligência coletiva.
Posta a parte humana com a qual a IA se relaciona, neste último artigo eu gostaria de avançar mais no âmbito da quinta característica: a inteligência coletiva. Não sou capaz de dizer se os computadores inteligentes poderão ou não de se interconectar e formar uma rede com propriedades verdadeiramente emergentes e independentes, ou seja, maior do que a soma de suas partes e sem qualquer interferência humana. Porém, me parece que para que isto ocorra, os computadores não teriam como fazê-lo sem antes se conectarem com todos os seres vivos e não só com os humanos.
Quero dizer que assumir o controle dos humanos não significa assumir o controle de toda a biodiversidade, que como tentei denotar no meu terceiro artigo, possui inteligência emergente. Tenho aqui de fazer uma pequena digressão para a hipótese de Gaia, proposta por James Lovelock na década de 1960. Houve muita discussão e mistificação dessas ideias, mas no primeiro livro de Lovelock elas são bem simples: os organismos vivos na biosfera modificam o ambiente e a propriedade emergente resultante é autorregulada. Atualmente já conhecemos bem os ciclos biogeoquímicos (ciclos do carbono, do fosforo do CO2 etc. no planeta) e sabemos que há interações na biosfera que levam um equilíbrio dinâmico que mantém todos os sistemas ecológicos em funcionamento. No momento, estamos extremamente preocupados que alguns poucos compostos – entre eles o CO2 – estejam ameaçando este equilíbrio. Sabemos também que a Amazônia é fundamental para a manutenção do clima no sudeste do Brasil. Tudo isso tem a ver com a inteligência coletiva que se refere aos microrganismos vivendo fora e dentro das plantas e animais, com todas essas interações formando uma enorme rede complexa cuja regulagem é crucial para que a biosfera e a civilização humana continuem existindo.
O ponto central aqui é como tudo isso se relaciona com a IA. Na singularidade proposta por Kurzweil a inteligência computacional talvez ultrapasse a inteligência humana. Mas e as outras inteligências? Será que sabemos o suficiente sobre elas? Somos presunçosos e acreditamos que os humanos são topo da evolução, mas ao mesmo tempo estamos todos de alguma forma conscientes das limitações. Como mencionei no terceiro artigo, há algo além das inteligências individuais, o que significa que a inteligência não é propriedade exclusiva dos seres humanos. Talvez a inteligência coletiva resulte no equilíbrio que Lovelock enxergou em sua hipótese de Gaia. De fato, entre os humanos a evolução da ética ambiental vem influenciando a cultura há quase um século, mudando rapidamente a visão dos humanos de uma ética individual para uma ética ambiental, o que tem sido defendido (inclusive por mim) como uma expansão extraordinária da consciência humana nos séculos 20 e 21. Se olharmos desse ângulo, ainda falta um bocado para que ocorra uma verdadeira singularidade através da IA e a inteligência biológica. A singularidade vai muito além dos humanos. Ela só acontecerá quando ocorrer entre a IA e a inteligência de toda vida na Terra.
Dedico esta série de artigos à memória do saudoso professor José Teixeira Coelho Netto, da Escola de Cultura e Artes da USP. Teixeira foi inspirador no meu pensamento sobre os temas da computação e da inteligência, permitindo-me o privilégio de participar por vários anos do grupo sobre Humanidades Computacionais, por ele liderado no Instituto de Estudos Avançados da USP.
_______________
(As opiniões expressas pelos articulistas do Jornal da USP são de inteira responsabilidade de seus autores e não refletem opiniões do veículo nem posições institucionais da Universidade de São Paulo. Acesse aqui nossos parâmetros editoriais para artigos de opinião.)