Siga-nos

Perfil

Economia

Economia

As máquinas devem ter princípios éticos? As empresas acreditam que sim

A inteligência artificial traz inúmeras oportunidades, mas também desafios éticos e socieconómicos sem precedentes

getty

A empresa alemã SAP anunciou recentemente a criação de um conselho de ética para inteligência artificial, que integra especialistas académicos, políticos e da indústria, afirmando ser a primeira tecnológica europeia a fazê-lo

Quando há dois anos o Tay, o sistema de inteligência artificial (IA) criado pela Microsoft, começou a interagir com os utilizadores e a ganhar popularidade no Twitter, aconteceu algo inesperado. Sem aviso, o chatbot que aprendia com as conversas que tinha com os utilizadores começou a publicar mensagens com conteúdos racistas, chegando mesmo a afirmar que o Holocausto foi inventado e que Bush teria sido responsável pelos ataques do 11 de setembro.

A polémica estalou e a Microsoft decidiu retirar da internet este sistema de machine learning (ramo da IA baseado na ideia de que os sistemas podem aprender com os dados), para o aperfeiçoar. Este e outros incidentes amplificaram o debate sobre a necessidade de garantir que as decisões tomadas por robôs são responsáveis, justas, não discriminatórias e transparentes.

É por isso – e pela incerteza associada ao impacto da IA na sociedade - que muitos gestores estão a procurar garantir que as empresas onde trabalham utilizam a inteligência artificial de forma responsável. Do total das organizações que adotaram esta tecnologia (quase três quartos das que existem no mundo), 70% disponibilizam formação ética aos seus técnicos e 63% têm comissões de ética para avaliar a forma como está a ser usada a inteligência artificial, conclui um estudo encomendado pela SAS – Accenture Applied Intelligence e pela Intel à Forbes Insights em julho deste ano.

A SAP é uma dessas empresas e, segundo afirma, a primeira tecnológica europeia a ter um conselho de ética para a inteligência artificial, que inclui especialistas da área académica, política e da indústria, externos à empresa. A sua missão é garantir que o desenvolvimento da IA segue um conjunto de princípios orientadores, previamente definidos com base nos maiores desafios das empresas e nos debates da academia, indústria, sector público, sociedade civil e discussões da tecnológica com os clientes, parceiros e trabalhadores.

Entre os especialistas estão Peter Dabrock (catedrático de Teologia Sistémica / Ética da Universidade Erlangen-Nurnberg), Henning Kagermann (presidente e senador da acatech, Academia Alemã de Ciência e Tecnologia), Susan Liautaud (professora de Política Pública e Direito em Stanford e fundadora da Susan Liautaud & Associates), Helen Nissenbaum (professora na Cornell Tech Information Science) e Nicholas Wright (consultor de Biologia Inteligente e investigador no Pellegrino Center for Clinical Bioethics Georgetown University Medical Center e no Instituto da Neurociência Cognitiva na University College London). Dentro dos próximos meses, a tecnológica prevê adicionar novos elementos.

getty

Oportunidades e desafios éticos

Ao possibilitarem que os programas informáticos e os sistemas autónomos tomem “uma grande variedade de decisões que antes eram apenas tomadas pelos humanos”, a inteligência artificial e o machine learning colocam novos desafios em cima da mesa. “A IA também coloca vários desafios socioeconómicos, incluindo mudanças potencialmente dramáticas no futuro do trabalho”, explica ao Expresso Markus Noga, vice-presidente sénior de machine learning da SAP, que integra o grupo europeu de especialistas de alto nível em inteligência artificial. “As preocupações com a IA partem normalmente de questões por responder e de incertezas sobre se os sistemas autónomos podem ser usados de forma justa, responsável, transparente e de acordo com as regulações de proteção de dados.”

Foi por isso que a SAP definiu sete princípios orientadores da inteligência artificial. Estes passam por garantir que o desenvolvimento da IA se mantém fiel aos valores da empresa de respeito pelos direitos humanos, é inclusivo e ultrapassa preconceitos, mantém a transparência e a integridade, preserva a qualidade e a segurança e coloca a proteção de dados e a privacidade no centro da sua estratégia.

Além disso, acredita-se que surgem desafios que necessitam de “um diálogo alargado entre indústrias, disciplinas, fronteiras e tradições culturais, filosóficas e religiosas”. São eles desafios de impacto económico (de que forma a indústria e a sociedade podem colaborar para preparar estudantes e trabalhadores para a economia da IA e como a sociedade deve adaptar-se à nova redistribuição económica), social (o valor e significado do trabalho para as pessoas e o papel potencial dos sistemas de IA para serem companheiros sociais e cuidadores) e normativos (dilemas éticos e quais as aplicações de IA que devem ser permitidas).

Este conselho de ética vai trabalhar em colaboração com a comissão diretivo de ética na inteligência artificial, que inclui gestores de desenvolvimento, estratégia e recursos humanos da tecnológica que disponibiliza soluções de software e aplicações empresariais. “As primeiras atividades desta comissão passarão por rever as políticas e procedimentos da SAP em cada aspeto do nosso negócio, para garantir atualizações que permitam dar resposta às necessidades criadas pela IA”, acrescenta Markus Noga.

“A inteligência artificial oferece imensas oportunidades, mas também levanta desafios éticos, sem precedentes e frequentemente imprevisíveis, para a sociedade e para a humanidade”, esclarece em comunicado Susan Liautaud, professora de Política Pública e Direito em Stanford. “O conselho de ética de inteligência artificial permite-nos assegurar uma IA ética, que serve a humanidade e beneficia a sociedade.”