A “Blueprint for an AI Bill of Rights” assenta em cinco pontos fundamentais. Contudo, nenhuma lei foi estabelecida, pelo que continuamos dependentes da autorregulação das tecnológicas relevantes nesta matéria.
Os Estados Unidos da América são (segundo dados da Preqin validados pela OCDE) o país que maior investimento privado faz no sector da Inteligência Artificial. Em 2021, mais de 106 milhões de dólares foram alocados a essa tecnologia – face aos 46.9 milhões de dólares investidos pela China, que ocupa o segundo lugar -, e, ao longo de 2022, foram já investidos mais de 64 milhões de dólares. Agora, segundo a Casa Branca, o objectivo é regular.
“Na América e um pouco por todo o mundo, sistemas que deveriam ajudar no tratamento de pacientes têm-se revelado inseguros, ineficazes, ou enviesados. Algoritmos utilizados na contratação e creditação de decisões têm reflectido e reproduzido desigualdades indesejadas, penetrados por tendências nocivas e discriminatórias.
A falta de controlo sobre a recolha de dados nas redes sociais tem sido utilizada para ameaçar as oportunidades das pessoas, minar a sua privacidade, e rastrear de forma perversa a sua actividade – frequentemente sem o seu conhecimento ou consentimento”, pode ler-se no documento. Mas tudo isto, à luz da “Blueprint for an AI Bill of Rights”, ou Directrizes para uma Declaração de Direitos da Inteligência Artificial (DDDIA), é evitável.
As directrizes face à Inteligência Artificial, agora firmadas por Washington, prendem-se a cinco pontos fundamentais: Sistemas Seguros e Eficazes; Protecção contra a Discriminação Algorítmica; Privacidade dos Dados; Notificação e Explicação; Alternativa Humana, Consideração e Reserva. Para que não restem dúvidas, explicamos, um por um, os pontos em causa na regulação da tecnologia.
Sistemas Seguros e Eficazes.
Análise da inovação, estudo do impacto societal, redução dos riscos para os utilizadores. Tudo isto pode parecer óbvio no natural desenvolvimento da ciência e da tecnologia mas, como não raras vezes temos assistido, o mesmo não se pode dizer quanto à inteligência artificial – ou, sequer, à quinta revolução industrial.
O lucro, o domínio, e a monopolização do mercado continuam a ser pilares fundamentais da mentalidade corporativa, em detrimento do cliente/utilizador. Do impacto na saúde física e mental do internauta enquanto indivíduo, à forma como este interage com o que o rodeia e se mantém um membro activo na sociedade.
Passando, pelo caminho, por questões éticas, morais, filosóficas, políticas, sociológicas, psicológicas, ou económicas – as consequências têm sido para lá do imaginável em toda a linha.
Quanto às tecnológicas, contudo, há uma grande diferença: estas são regulado e regulador, ou seja, são deixadas à autoregulação dos seus próprios desígnios. O que tem resultado numa dimensão, poder, riqueza, influência e alcance ímpares na história da humanidade, como vemos empresas como a Google ou a Meta atingirem.
O que a Casa Branca vem agora defender é que os internautas devem ser protegidos contra sistemas automatizados inseguros e pouco eficazes. Nesse sentido, a inteligência artificial deve ser testada, os seus riscos devem ser identificados e mitigados, a utilização que vá para além da pretendida deve ser impedida, os padrões de qualidade e segurança devem ser monitorizados. Ainda é tudo muito vago, mas é um começo.
Protecção contra a Discriminação Algorítmica.
Um estudo desenvolvido pela Universidade de Cambridge, cujos resultados chegam agora a público, aponta sérias falhas aquilo que chamam de “recrutamento automatizado”.
Para evitar a discriminação pelas máquinas, ferramentas de recursos-humanos potenciadas por inteligência artificial foram despojadas dos critérios de ‘raça’ e ‘género’, na tentativa de tornar o a selecção e recrutamento dos candidatos “verdadeiramente meritocrática”. Segundo os cientistas de Cambridge, contudo, essa linha de actuação pode ser “enganadora”.
A Carta para os Direitos contra a Inteligência Artificial aponta, por isso, a importância da protecção de factores como a raça, a cor, a etnia, o sexo (incluindo gravidez, maternidade, e cuidados médicos relacionados, identidade de género, orientação sexual), religião, idade, nacionalidade, pessoas com deficiência, serviço militar, informação genética, entre outras definições protegidas por lei no seu contacto com sistemas automatizados.
Os mecanismos de protecção devem ser “desenvolvidos e tornados públicos, sempre que possível, para confirmar essa protecção”, aponta a Carta.
Privacidade dos Dados.
Utentes portugueses com reacções adversas a vacinas contra o Covid-19 viram, no final de setembro, os seus dados clínicos expostos pela FDA (Food and Drug Administration), regulador de saúde norte-americano.
Mas este está longe de ser um caso isolado, e está longe de ser um problema português. A privacidade dos dados concedidos pelos utilizadores têm sido um dos maiores pontos fracos das novas tecnologias, para ambos internautas e empresas.
Esta é uma tendência que se arrasta desde (pelo menos) 2005, quando cerca de 1.4 milhões de utilizadores viu os seus dados bancários tornados públicos através de uma violação de dados na DSW Shoe Warehouse, empresa de sapatos e acessórios de designers. Entre 2013 e 2016, a Yahoo! viu expostos os dados praticamente todos os seus utilizadores – que, na época, ascendiam a cerca de 3 mil milhões.
Por outro lado, também as empresas a quem os internautas fornecem os dados têm mantido práticas predatórias e abusivas, não só tirando proveito dos dados cuja finalidade não foi aprovada pelos proprietários dos mesmos mas gerando lucros astronómicos para as empresas que o fazem. “Um valor sem precedentes está a ser criado pela data de todos nós. E ainda existe um total desligamente entre a criação desses valor e quem beneficia dele”, afirmava Frank McCourt, fundador do Project Liberty, ao Wall Street Journal, em dezembro passado.
É pela crescente consciencialização dos utilizadores face aos seus dados pessoais, mas também pelo aumento dos ataques, não só em número mas em quantidade de utilizadores afectados, que a iniciativa do governo norte-americano aponta à “privacidade dos dados por definição”. A Carta de Direitos contra a IA (CDCIA) defende, por um lado, a protecção integrada contra a utilização abusiva dos dados, por outro, que os internautas tenham uma palavra a dizer sobre os seus dados e como são utilizados.
Notificação e Explicação.
Já alguma vez pensaste sobre a necessidade de ‘provares que és humano’ ao chamado reCAPTCHA da Google? A verdade é que temos sido treinadores de IA nos últimos, pelo menos, 15 anos, e temos contribuido para a melhoria da tecnologia.
Desde que começou a fazer a selecção das palavras que lhe apareciam no ecrã, no início, até que passou a identificar todos os barcos, ou cães, ou números de porta, ou bocas de incêndio, ou pontes, e a apertar o botão azul para confirmar as opções no final.
O objectivo é simples: ao ter milhares de milhões de utilizadores a identificar os objectos pretendidos, todos os dias, um pouco por todo o mundo, a tecnológica norte-americana consegue aumentar e refinar a sua base de dados sem que tenha de pagar por esse ‘trabalho’. Pelo contrário, ainda cobra às empresas que queiram usar o serviço.
Mas se o nosso sentido crítico e compreensão melhoraram face ao serviço, e nos é relativamente fácil reconhecer algumas das suas finalidades no que toca à Google, o mesmo não se pode dizer quanto a outras empresas.
O objectivo da CDCIA neste ponto passa por levar as empresas a declarar expressamente que um sistema automatizado está a ser utilizado, e qual o impacto directo que o mesmo sistema pode ter relativamente ao utilizador.
“Designers, desenvolvedores, e distribuidores de sistemas automatizados devem fornecer documentação, em linguagem clara, sobre o funcionamento do sistema e papel desempenhado pela automação, notificar que tais sistemas estão a ser utilizados, informar sobre que indivíduo ou organização é responsável sobre o sistema, e fornecer explicações sobre os seus propósitos de forma clara, atempada e acessível”, declara a Casa Branca na Carta.
Alternativas Humana, Consideração e Reserva.
Não menos importante, o último ponto da Carta da Inteligência Artificial aponta à possibilidade do utilizador não depender unicamente do sistema automatizado para resolver as suas questões, podendo optar por ter acesso a um assistente humano que considere e solucione os seus problemas – quando essa opção fizer sentido.
Isto é, em contacto com temas sensíveis como (mas não limitados a) justiça criminal, emprego, educação, saúde, os sistemas automatizados devem ser desenvolvidos de forma a responder às necessidades específicas de cada um dos assuntos, devolver dados relevantes para que possa ser possível a sua supervisão, e permitir a integração de um operador humano em decisões de maior risco ou adversidade.
Nesse sentido, o documento salienta a importância do acesso a uma interação entre humanos em situações em que o sistema automatizado falhe, produza algum erro, ou exista a necessidade do utilizador contestar o impacto negativo deste no seu caso específico.