Como começou o seu interesse pela área da Inteligência Artificial (IA)?
No tempo em que estive a fazer o mestrado já havia uma disciplina chamada Controlo Inteligente, e já havia algumas unidades curriculares que integravam componentes associadas à IA. Foi mais ou menos nessa altura, aproximadamente em 2003 ou 2004, que me comecei a interessar, apesar de a IA que conhecemos agora ser diferente. O meu percurso académico foi na área da robótica e, no meu caso, a IA foi uma coisa natural. Para resolver alguns problemas, havia necessidade de aplicar o que, na época se chamava Expert Systems – sistemas inteligentes -, sendo que agora a tendência tem sido a aplicação de uma nova tecnologia chamada Deep Learning ou aprendizagem profunda. É a sequência natural. Não há propriamente uma transição de um tipo de solução para o outro. Como tudo na ciência, é cumulativo.
Neste momento, em que áreas está a trabalhar?
Estou a trabalhar em vários domínios, entre eles a condução autónoma. Um deles tem que ver com a identificação do espaço ocupado ou livre à frente de um veículo, aplicando redes neuronais na fusão sensorial de câmaras e LiDAR, para conseguir perceber, com fiabilidade e eficiência, as áreas livres e disponíveis para serem atravessadas. Outra área, onde estou a trabalhar é a Inteligência Artificial aplicada à Internet of Things (IoT), que é uma tecnologia que vai estar disseminada por todas as casas, indústrias, entrou outros casos. Contudo, os modelos de redes neuronais que utilizamos para a condução autónoma ou o Chat GPT, não cabem nesses dispositivos e há razões, como a segurança, que fazem com que seja racional colocá-los nestes dispositivos IoT. Não faz sentido transmitirmos dados domésticos para um servidor, para depois serem processados para haver interpretação e conclusões e depois enviá-los de volta. Quando os dados estão a transitar há um risco de segurança. Também por uma razão de largura de banda, não faz sentido transmitir todos os dados em vez de reduzirmos a quantidade e também por questões de eficiência energética. Por exemplo, se tivermos um sensor de temperatura, ele não precisa de enviar informação para os servidores para saber que é preciso ligar o ar-condicionado de uma forma inteligente. Podemos fazê-lo com um pequeno processamento com IA e avaliar o perfil de temperatura que costuma existir numa casa, os padrões de utilização da pessoa, que pode preferir aquecer mais à noite ou durante o dia e até utilizar informações da produção de energia eléctrica. Pode haver um “racional” que é difícil de interpretar por um sistema simples, mas onde uma pequena rede neuronal a correr localmente, pode identificar as pequenas nuances. Para isto acontecer, é necessária muita engenharia por trás. É preciso conseguir reduzir os modelos e torná-los suficientemente exactos, mas sem serem de tal maneira computacionalmente pesados que não possam correr nos dispositivos IoT. Eu e a minha colega, a professora Mónica Figueiredo, temos participado nas competições DCASE – classificação de cenas acústica usando só um segundo de áudio, onde com apenas com esse segundo se pode distinguir se a pessoa se encontra num aeroporto, num centro comercial, dentro de um metro ou junto a uma estrada, utilizando uma rede neuronal que cabe num microcontrolador idêntico aos que se encontram em máquinas de café.
E que mais?
Também tenho trabalhado em interpretabilidade, que é um dos problemas que a comunidade científica está a resolver. Isto é, a razão pela qual um determinado modelo de rede neuronal tomou uma determinada decisão. Assumimos e recebemos um conjunto de dados, aplicamos esses dados, geramos um modelo, fazemos os testes para verificar se os resultados têm o nível de exactidão desejado, e depois mandamos para uso. Vou dar um exemplo de um caso do Direito. Se submeter uma análise de um crime, e o interpretador, o Chat GPT, devolver um conjunto de recomendações, linhas de direcção ou uma estimativa de reincidência, qual foi o raciocínio que esteve por trás para se tomar aquela decisão? É muito importante sabermos isto, para identificar se há enviesamentos, por exemplo, na construção do próprio modelo. A área da Medicina também já usa IA para fazer o desenvolvimento de novas fármacos e de interpretação de dados de saúde. Mas quem é que são os principais beneficiados das novas terapias criadas? São homens, de meia-idade, caucasianos. Porquê? Porque os “data sets”, os conjuntos de dados que estão disponíveis, são essencialmente, os cobrem esta população. Se for de outro grupo que não este, o retorno do uso dos fármaco não é maximizado. A interpretabilidade, o perceber do porquê da tomada de decisão, é fundamental e importante para podermos adaptar os modelos e fugir dos enviesamentos, que até podem ser podem ser maliciosos e, intencionalmente, introduzidos no sistema. No treino do sistema, pode haver uma intenção de criar um modelo de rede neuronal que, nativamente, já tem um viés. No entanto, na maior parte das vezes, isso acontece de forma não deliberada.
Quando se pergunta se alguém já alguma vez usou IA, a maioria tem dificuldade em perceber se sim, se não. A maior parte das vezes diz que não, mas é e mesmo assim?
Ouço com muita frequência comunicações da área da Inteligência Artificial e não existe um consenso sobre o que é a IA. A definição que mais gostei de ouvir foi que “a Inteligência Artificial é aquilo que, quando alcançado, deixa de o ser”. Eu explico. Quando se começaram a construir sistemas, que já conseguiam interagir com o ser humano de uma forma relativamente inteligente, os detractores diziam que não era Inteligência Artificial. “Para ser designado IA é necessário atingir uma determinada meta.” Quando o computador da IBM DeepBlue, bateu o campeão de xadrez Kasporv, disseram que “não, isto não é IA porque não tem interpretação, é um algoritmo de pesquisa de força bruta”. Depois, quando conseguiu ganhar no jogo de estratégia Jeopardy, rebateram que “não, isto não é IA porque, necessitaria, por exemplo, de ter a capacidade de pesquisar ou arranjar soluções que não são determinísticas”. O jogo seguinte foi o Go, onde o número de combinações possíveis é maior do que o número de átomos no Universo e, portanto, não há uma forma de, por força bruta, conseguir ganhar a um jogador experiente. Mas, a Google no seu projecto DeepMind, conseguiu desenvolver um algoritmo de IA, que conseguia jogar o Go e ganhar ao campeão mundial. Aliás, na primeira iteração não ganhou, mas, na segunda, puseram o primeiro algoritmo, a jogar contra outro algoritmo e a aprendizagem foi exponencial.
Aprenderam um com o outro.
Sim. O que acontece é que quando estes projectos chegam ao objectivo, vem alguém, um detractor, dizer “não, isso não é inteligência artificial, porque para ser é preciso mais esta ou aquela características”. Depois apareceram os Chats GPT e julgou-se que aquilo era IA, mas foi logo argumentado que, para ter Inteligência Artificial, é necessário haver cognição. O problema é definir o que é a IA.
É uma questão de ter consciência de si mesmo? Fala-se muitas vezes que uma IA tem de “acordar” e tomar consciência de si mesma.
Sim. O que temos até agora são métodos de reconhecimento de padrões, mas nada mais. Um Chat GPT não passa disso. Não tem intenção, não tem consciência. O que será a IA? Não sei, porque, provavelmente, quando lá chegarmos, vamos arranjar outra definição que envolve, por exemplo, a criatividade. Isto é, a capacidade de criar a partir de nada. Embora os modelos generativos já consigam fazer um pouco disso.
No dia-a-dia, interagimos com algum tipo de IA?
Não conseguimos não estar em contacto com tecnologia com algum tipo de IA. Os carros que saem da linha de produção são obrigados a ter sistemas de assistência à condução e esses já têm algum grau de inteligência. Mas que nível de inteligência? Podem aprender as preferências pessoais do condutor no habitáculo, mas, no que diz respeito a sistemas mais críticos, eles não têm a capacidade de aprender, porque não seriam qualificados para circular.
Em áreas como os negócios, a IA pode ajudar de alguma maneira?
Sim, aliás, costumo dizer que não é o Chat GPT que vai roubar o emprego. Mas quem souber trabalhar com as ferramentas é que o irá fazer a quem não as sabe usar. Quem não souber trabalhar com as ferramentas de Inteligência Artificial é que poderá correr esse risco. Isto tem sido comum em toda a história humana. Quem não se adapta aos novos desafios e às novas tecnologias é ultrapassado e perde o seu mercado. Quem não previr quais serão as alterações no mercado, quem não incorporar a tecnologia no seu processo produtivo, terá problemas. Na Critical Software, já criámos um programa interno de mudança para o uso da IA e presumo que todas as empresas devem estar a pensar nisso, porém, o problema será como se integra isso no processo produtivo. Como se usa a IA para ser mais eficiente? Para desenvolver e integrar novos produtos? A Inteligência Artificial é inevitável, vai estar na indústria, no Direito, nas Finanças, no sector produtivo, na Saúde. Todos vão ter de a incorporar, correndo o risco de, se não o fizerem, serem ultrapassados e perder o mercado.
O ludismo, movimento operário inglês que apareceu no final do século XVIII e início do XIX, contestava a industrialização porque as máquinas roubavam o trabalho aos humanos. Houve violência, mas também o argumento de que “os trabalhadores vão encontrar outras coisas para fazer, mais especializadas”. Mas isso durou mais de 100 anos a acontecer. Estamos numa transição semelhante, mas mais rápida?
Sim. Aconteceu na revolução industrial e aconteceu por volta dos anos 90, aquando do boom das dotcom. A transição demorou muito, porque o uso da ferramenta não era o apropriado. Vou dar um exemplo. As fábricas que usavam a máquina a vapor na revolução industrial começaram a tentar transitar para o uso do motor eléctrico, mas mantiveram os processos de produção. Antes, havia um motor a vapor central, que movimentava toda a fábrica e, se ele parasse, parava toda a produção. A primeira transição que se fez foi colocar um só motor eléctrico e substituir o outro, a vapor. Ou seja, não se mudou o paradigma da produção e ela não ficou mais flexível. Aplicar ferramentas novas e que podem ser disruptivas no processo produtivo, mas como no passado, não faz com que haja um aumento de produtividade. Esse é o risco que vai acontecer agora a curto e médio prazo. Vai tentar incluir-se ferramentas de Inteligência Artificial, mas vai querer continuar-se nos processos antigos. Criar-se-á inflação nas expectativas relativamente à IA, que não corresponde ao que ela consegue, neste momento, responder, e depois haverá uma quebra, na curva das expectativas. Só depois se irá aproximar as expectativas ao que, de facto, a tecnologia consegue responder. Um exemplo é a condução autónoma. Quantos de nós ouviram os arautos do futuro dizerem que os motoristas vão desaparecer, que os taxistas vão desaparecer e vai ser tudo autónomo? Ouvimos isso praticamente há dez anos e não está ainda a acontecer, não se materializou, porque houve uma inflação das expectativas. Quem estava na área, sabia que era impossível alguns desafios serem resolvidos num tempo tão curto. No entanto, pessoas como Elon Musk prometiam que, em dois anos se conseguiria. Mas não foi só ele, responsáveis de grandes produtores mundiais de automóveis diziam o mesmo. O risco é que algumas empresas vão tomar a iniciativa e tentar integrar tudo e não vão ver a resposta imediata, porque estão a aplicar os mesmos processos anteriores e vão desistir. Outras, mais pragmáticas e resilientes em manter os canais de integração abertos, vingarão.
Por que razão existe na sociedade uma percepção negativa da IA? É por causa da cultura pop e do Exterminador Implacável?
Quando vemos quaisquer recursos multimédia associados a Hollywood, o robô tem uma conotação sempre muito pesada e negativa e atribui-se-lhe algo que não existe, que é a intenção. Acredito que há um risco. Aliás, ele existe tanto, que um conjunto de investigadores assinaram um memorando a alertar para termos cuidado com o desenvolvimento da IA. Criar regras é determinante. Se eu disser a uma IA para produzir clipes, ela vai fazê-lo, mas, se ela achar que é mais eficiente, por exemplo, destruir um humano para fazer um clipe, porque isso a torna mais eficiente, é o que acontecerá. Mas não tem intenção de fazer o mal. A intenção da IA é ser eficiente e fazer o maior número de clipes. O problema não me parece que seja de consciência ou de intenções. A dúvida é saber como a regulamos. O uso da IA para cenários de defesa militar já existe e um míssil que sai do ponto A e vai até ao B, com alguns milhares de quilómetros de distância pelo meio, e tem de aplicar contramedidas para se desviar de outros sistemas que o queira destruir, tem de ter IA. Quando começou este conflito no Médio Oriente, entrevistaram uma alta patente da Marinha norte-americana estacionada junto ao Iémen, que dizia que, quando são atacados por mísseis, o tempo de decisão, para espoletar a protecção, é de 2 minutos. Os dispositivos com IA têm capacidade de tomar essas decisões muito mais rápido do que um ser humano. O risco é eles começarem a tomar todas as decisões, de forma semi-autónoma ou autónoma, e não nos dar tempo para intervirmos no processo, provocando consequências mais gravosas.
A União Europeia esteve a trabalhar numa regulamentação complexa para a Inteligência Artificial, que foi aprovada há dias. Deveria ter começado há mais tempo?
Não há uma regulamentação que se consiga terminar neste domínio. Vai estar sempre em actualização. Esta só foi aprovada agora, mas a sua redacção já tem vários anos. Não existe uma legislação que consiga regular um mercado tão volátil. Ou ela é demasiado genérica e apenas enuncia valores e orientações, ou, sendo demasiado específica, encontra-se sempre obsoleta. Além desta legislação da União Europeia, não conheço uma outra região do mundo que o tenha feito e que tenha trabalhado tanto para a alcançar. O presidente Biden, dos EUA, emitiu um conjunto de recomendações para a IA, mas são muito genéricas e não são tão abrangentes quanto aquela que a União Europeia fez. A UE está a fazer um bom trabalho a nível mundial, mas, isso é o suficiente? Só o futuro o dirá.
Isto é algo que também depende da vontade dos políticos, dos homens. Por exemplo, se o bloco chinês ou o bloco norte-americano decidirem não regulamentar e permitirem que se façam determinados usos da IA, a União Europeia poderá ser obrigada a acompanhá-los.
Eventualmente, isto deveria ser definido ao nível da ONU. Há um aforismo que costumo usar: “pior do que incumprir num plano é não ter um plano para incumprir”. Ao menos, aqui, na UE já temos um plano. Se tem capilaridade suficiente para tocar em todas as áreas, se tem conceitos humanos e morais que consigam reflectir aquilo que queremos para o futuro e para as próximas gerações, eventualmente, não terá. Contudo, isso serve para podermos contar com algum grau de evolução. Ter nada é muito pior do que ter apenas um guião onde nos possamos orientar e regular.
Investigação em condução autónoma
Luís Conde Bento nasceu há 46 anos em Torres Novas.
Licenciou-se na Universidade de Coimbra, passou pela Universidade de Lund, na Suécia, onde concluiu uma Master Thesis, regressando a Coimbra para o doutoramento.
Estagiou no centro de investigação francês INRIA – Institut National de Recherche en Informatique et en Automatique, e foi investigador, durante um estágio, na Universidade Carnegie Mellon, em Pittsburgh, Pensilvânia, nos Estados Unidos da América.
É professor adjunto, no Departamento de Engenharia Electrotécnica, da Escola Superior de Tecnologia e Gestão do Instituto Politécnico de Leiria e investigador integrado, no Instituto de Sistemas e Robótica, da Universidade de Coimbra.
Há um ano tornou-se especialista em Inteligência Artificial na Critical Software.
“O meu background na investigação, é na área da condução autónoma. O meu percurso tem sido todo nessa área e nos métodos associados para percepção e identificação de objectos e localização de elevada precisão”.