IA e Ética

IA e Ética: Navegando pelos desafios da era tecnológica

A Inteligência Artificial (IA) está a transformar todos os aspetos da nossa vida, mas o seu avanço coloca desafios éticos e regulamentação significativa que não deixam ninguém indiferente.

Este artigo explora estes desafios, destacando exemplos reais e discutindo as potenciais consequências da regulamentação neste domínio. Além disso, atualizaremos a informação, desenvolvendo cada desafio. Mas, primeiro, comecemos pela base.

 

O que é a ética na IA?

A ética na IA refere-se aos princípios morais e às diretrizes que regem a utilização e o desenvolvimento de sistemas de inteligência artificial. Estas normas procuram garantir que a tecnologia seja desenvolvida e utilizada de forma responsável. É por isso que a ética da Inteligência Artificial está intimamente ligada à regularização da mesma e à criação de um quadro jurídico, de práticas e de recomendações consensuais e comuns.

Não é de estranhar que a União Europeia e os seus países membros estejam na corrida para regulamentar esta tecnologia, dados os grandes impactos que dela se esperam, muitos deles ótimos, mas também com consequências que devem ser antecipadas e evitadas, consequências que já estamos a viver hoje.

 

Preconceitos herdados dos algoritmos

A IA, alimentada por dados humanos, pode herdar e amplificar preconceitos pré-existentes, conduzindo a decisões discriminatórias. Este facto pode perpetuar e amplificar os preconceitos existentes.

Estes preconceitos podem manifestar-se em áreas como a contratação de funcionários, em que os algoritmos podem favorecer determinados grupos em detrimento de outros com base em dados históricos.

Um exemplo claro é o sistema de recrutamento da Amazon, que revelou preconceitos contra as mulheres e a sua contratação.

 

Sistemas de armas autónomos

A possibilidade de ataques sem supervisão levanta sérias questões éticas sobre a guerra e o uso da força. Os drones militares inteligentes, por exemplo, têm sido objeto de debate devido à sua capacidade de realizar ataques com pouca supervisão humana, como está a acontecer na guerra entre a Ucrânia e a Rússia, onde se tornaram uma das principais armas. Este exemplo perpetua os avanços tecnológicos tristemente relacionados com a guerra à custa de vidas humanas, com as implicações éticas e morais que isso acarreta.

A nova lei europeia sobre a IA procura atenuar estes riscos, exigindo transparência e equidade nos sistemas de IA.

 

Vigilância indiscriminada dos cidadãos

Com a IA, a vigilância tornou-se mais omnipresente e sofisticada, colocando em risco a privacidade individual. Um caso notável é a utilização de tecnologias de reconhecimento facial na China, que suscitou preocupações sobre a monitorização e o controlo da população a níveis sem precedentes.

Esta é também uma das regularizações que estão a ser abordadas no novo quadro jurídico europeu, a fim de minimizar o seu impacto na privacidade e na liberdade dos cidadãos.

 

Gestão do controlo dos sistemas

Determinar quem controla e supervisiona os sistemas de IA é um grande problema, difícil de resolver. A falta de clareza na gestão e no controlo destes sistemas pode levar a abusos ou mal-entendidos, como se verificou em incidentes em que veículos autónomos estiveram envolvidos em acidentes, como foi o caso do carro autónomo da Cruise que cometeu um atropelamento.

 

Aumento da desigualdade

Tal como aconteceu com a Revolução Industrial, que marcou uma transição dramática de sociedades agrícolas e artesanais para sociedades industrializadas e mecanizadas, a revolução da IA pode alargar o fosso socioeconómico. A automatização pode substituir empregos, afetando desproporcionadamente os trabalhadores pouco qualificados.

“digitalização” do emprego é um exemplo, em que as competências tecnológicas se tornam indispensáveis, deixando para trás aqueles que não as possuem. Um exemplo disso é a  robotização das linhas de montagem de veículos,  como é o caso da BMW, que dispensa os trabalhadores que realizavam estas tarefas, obrigando-os a procurar uma nova forma de ganhar a vida, o que nem sempre, como é o caso da idade, será de todo simples ou viável.

 

Falta de responsabilização pelos resultados das suas ações

A IA coloca desafios em termos de responsabilização. Quem é responsável quando um sistema de IA toma uma decisão incorreta ou prejudicial? A controvérsia em torno dos acidentes com veículos autónomos da UBER, como vimos acima, ou da Tesla, é um exemplo da complexidade da atribuição de responsabilidades.

Quando um veículo autónomo está envolvido num acidente, é difícil determinar quem é o responsável. É o condutor, que pode não ter prestado a devida atenção apesar de estar a controlar o veículo? Será o fabricante do veículo, devido a possíveis defeitos no software de IA? Ou será que é o próprio sistema de IA?

A complexidade dos sistemas de IA torna difícil compreender e explicar por que razão foram tomadas determinadas decisões, o que complica ainda mais a atribuição de responsabilidades.

 

Produção de desinformação convincente, cibercriminalidade

utilização ilícita da IA está a criar informações falsas convincentes, como as “deepfakes“, que são cada vez mais difíceis de detetar. Isto coloca grandes problemas à integridade da informação e à verificação da veracidade da informação, criando um cenário de desinformação muito desencorajador, em que os indivíduos e os utilizadores se tornam o meio de disseminação e viralização do deepfake, com as grandes repercussões sociais que isso pode implicar.

Além disso, o cibercrime tornou-se mais sofisticado com a utilização da IA, utilizando-a de forma criativa para novas burlas que são muito credíveis, sendo muito complexas de detetar, como foi o exemplo disso mesmo em 2019, quando um funcionário de uma grande empresa de energia do Reino Unido acreditou ter sido contactado pelo seu CEO através de uma chamada telefónica com a voz do executivo, em que este lhe pedia para fazer uma transferência financeira de mais de 200.000 libras.

Para concluir este primeiro artigo sobre como a nova era da Inteligência Artificial apresenta um equilíbrio complicado, em que as maravilhas tecnológicas coexistem com as preocupações éticas e regulamentares.

Desde as distorções nos algoritmos até às questões de privacidade e responsabilidade, enfrentamos uma realidade em que cada avanço traz consigo questões críticas. Para enfrentar os dilemas da IA, é necessário harmonizar a inovação tecnológica com as considerações éticas, assegurando assim um progresso sustentável e consciente, sabendo que esta evoluirá constantemente a uma velocidade vertiginosa.