O Novo Mundo da Inteligência Artificial
Como será viver numa sociedade em que os robots são capazes de aprender sozinhos e criar outras máquinas através de Inteligência Artificial (IA)? A questão equacionada na conferência “Artificial Intelligence in Life Sciences: ethical paths” (Inteligência Artificial nas Ciências da Vidas: percursos éticos”), que decorreu a 21 de setembro, na Fundação Luso-Americana para o Desenvolvimento (FLAD), em Lisboa, pode remeter para um mundo imaginário, que já esteve mais longe de ser realidade.
“O impacto da Inteligência Artificial na nossa sociedade não é mais ficção científica, é realidade científica”, afirmou Tiago Marques, Doutorado em Neurociências e um dos líderes do Laboratório de Cirurgia Digital da Fundação Champalimaud, o primeiro orador da sessão intitulada “AI: What Can We Do?” (”O que podemos fazer?”), enquanto Luís Paulo Reis, da Faculdade de Engenharia do Porto, colocou em cima da mesa a reflexão: “Podem os robots criar outros robots? Este é um problema ético que é necessário resolver, é necessário regular estes aspetos e ser muito cuidadoso”.
Na sessão de abertura, perante uma sala com lotação esgotada de 140 pessoas, Elsa Henriques, membro do Conselho Executivo da FLAD, deu as boas-vindas a todos, sublinhando a importância de debater o papel da IA no presente e no futuro, a partir de uma perspetiva ética.
A iniciativa, organizada pelo Conselho Nacional de Ética para as Ciências da Vida (CNECV) e a FLAD, pretendeu motivar uma “reflexão social que tem de ser objetivamente informada por especialistas e serenamente discutida por todos”, sublinhou a Presidente do CNECV. A IA é frequentamente encarada através de um “binómio primário”, alertou Maria do Céu Patrão Neves, “numa tensão entre os que projetam a IA como construtora de um novo mundo de satisfação rápida e plena das necessidades humanas, cujo paradigma é a extinção progressiva do trabalho e a instauração crescente do lazer, e os que antecipam a tomada do poder pela IA, na sua exponencial capacidade de aprendizagem autónoma e de desempenho mais perfeito e eficaz do que o humano, escravizando-o progressivamente, em discursos tendencialmente inflamados e que obscurecem o exercício da razão. A Ética oferece-nos um espaço equidistante em que a IA se desenvolve.”
Tiago Marques concorda que a IA não pode ser encarada a “preto e branco”, sublinhando os avanços nas ciências da vida. O especialista lidera uma equipa na Fundação Champalimaud que está a desenvolver “um novo dispositivo médico que, com recurso à IA, tem como objetivo permitir, durante a cirurgia do cancro da mama, ver através da pele”.
Nickolas Papanikolaou, da Fundação Champalimaud, questionou sobre o grau de segurança dos doentes quando estas novas tecnologias são usadas e Tiago Marques respondeu que as “aplicações da IA na medicina têm que ser altamente reguladas, mas o problema surge quando os inventores não respeitam as melhores práticas e encontram formas de contornar estes meios regulatórios”.
“A AI é provavelmente o tema de investigação mais quente do mundo. Estamos a descobrir um novo mundo”, afirmou Luís Paulo Reis, professor da Faculdade de Engenharia do Porto. Para este especialista, o desenvolvimento tecnológico não pode ser parado, mas é necessário educar as novas gerações para o uso ético das tecnologias. A AI deve ser usada com transparência, exatidão e integridade, responsabilidade, com respeito pela privacidade, combatendo preconceitos e discriminação. O engenheiro refere que os robots movidos a inteligência artificial passarão a ser comercializados num prazo entre três a quatro anos e vai ser necessário regular todo este novo mundo.
Na segunda sessão da tarde “AI: What Should We Do?” (IA: O que devemos fazer?) o norte-americano Marc Rotenberg, do Centro para a IA e Políticas Digitais, em Washington, e o grego Mihalis Kritikos, investigador de ética e consultor de IA na Comissão Europeia, defenderam que é necessário apostar numa regulação clara e eficiente das políticas relativas a esta área tanto nos Estados Unidos como na Europa, apostando-se numa infraestrutura bem definida de proteção de dados e na transparência dos algoritmos.
“Como é que vamos manter o controlo destes sistemas que estamos a criar?”, interrogou Marc Rotenberg, salientando “ser importante documentar as políticas e práticas dos diferentes países, com metodologias baseadas em normas globais, fornecendo uma base para avaliações comparativas, encorajando os países a assegurar que a AI é confiável e centrada no ser humano”.
“Quando é que a AI não deve ser utilizada num determinado caminho? Quando é que podemos proibir a IA? Esta é a pergunta que os engenheiros e certas companhias não querem ouvir…”, alertou o professor norte-americano. Mihalis Krtikos, por sua vez, exemplificou: devem ser proibidas na IA técnicas subliminares, exploração de vulnerabilidades da população e identificação biométrica em espaços públicos.
Henrique Sousa Antunes, Coordenador do Grupo de Investigação da Lei e Inteligência Artificial, da Universidade Católica Portuguesa, sublinhou que “a ética desempenha um importante papel para regular a IA, mas temos que afirmar que não é suficiente. A lei tem de entrar neste domínio.” O professor considera que a Europa, que tradicionalmente tem “uma alta proteção dos direitos humanos”, está a “viver uma crise de identidade” face à forma de lidar com a IA. Esta ideia traduz-se, por exemplo, no facto da proposta da Comissão Europeia sobre esta matéria referir “o príncipio da inovação”, mas não o “príncipio da precaução”.
Nas conclusões a fechar a conferência, o médico e membro do CNECV, Rui Nunes deixou mais algumas questões para reflexão: Será possível no futuro ter uma personalidade jurídica para robots inteligentes? A IA poderá desenvolver intencionalidade, consciência, a capacidade de deliberar, de escolher racionalmente? Será que a população vulnerável vai ficar ainda mais vulnerável?
VEJA A GALERIA DE IMAGENS COMPLETA
VEJA O VÍDEO DA CONFERÊNCIA AQUI.