A inteligência artificial (IA) deixou de ser uma promessa distante para se tornar parte integrante do nosso quotidiano, das recomendações de produtos à triagem de currículos, das decisões médicas ao crédito bancário. Mas à medida que a IA se torna mais omnipresente, cresce o risco de as nossas organizações se tornarem mais eficientes mas menos sábias.
Luciano Floridi, académico italiano conhecido pelo seu trabalho pioneiro no campo da filosofia e da ética da informação, lembra-nos que a questão essencial não é se a IA é inteligente, mas que tipo de inteligência tem. A IA pode ser eficiente, mas não é consciente; pode reconhecer padrões, mas não compreende o seu significado nem o contexto moral em que atua. O desafio ético não reside apenas no que as máquinas fazem, mas no modo como as programamos para decidir e no tipo de valores humanos que nelas integramos. Cabe-nos, portanto, redefinir o papel da inteligência humana. Nesta nova Era da IA, esse papel é menos sobre a resolução de um problema bem delimitado e mais sobre a decisão de quais os problemas que vale a pena resolver, porquê e para que fim, e que custos, compensações e consequências são aceitáveis.
O caso do carro autónomo da Uber, que em 2018 provocou a morte de um peão no Arizona, expôs a fragilidade moral do progresso tecnológico quando a inovação ultrapassa a precaução. Quando os algoritmos tomam decisões fatais, quem é responsável? A empresa que desativou os travões de emergência? O engenheiro que programou o sistema? O regulador que autorizou os testes? Ou o condutor que confiou demais na tecnologia? O episódio ilustra o risco da difusão ou fragmentação da responsabilidade moral, um dos maiores dilemas éticos da era digital.
A liderança responsável, neste contexto, é a arte de integrar prudência e ambição. Não se trata de travar a inovação, mas de garantir que a criatividade tecnológica não suplanta o compromisso moral. Tal como defende Reid Blackman no seu recente livro Ethical Machines, as empresas precisam não apenas de reflectir sobre o conteúdo de potenciais riscos éticos que resultem da adoção da IA, mas também de desenvolver estruturas formais que garantam que esses riscos são devidamente endereçados. Relativamente a potenciais riscos, é fundamental que a liderança promova a explicabilidade sobre a opacidade dos algoritmos, que incentive a diversidade e a inclusão sobre o enviesamento, e que salvaguarde a privacidade da informação sobre o lucro imediato. Em relação a estruturas formais, os líderes devem identificar funções responsáveis pela análise e monitorização contínua destes temas e desenhar processos que traduzam princípios éticos em práticas empresariais.
A IA é uma ferramenta poderosa para o bem comum, mas apenas se for guiada por valores humanos. Beneficência, justiça e pensamento crítico não são conceitos abstratos, são competências práticas de liderança num mundo em que o poder de decidir já não é apenas humano. O verdadeiro teste ético da IA não é técnico, mas moral: conseguir que as nossas máquinas sejam justas e reflitam da melhor forma os valores humanos fundamentais.
Have a Great and Impactful week!
Filipa Lancastre, Assistant Professor of Strategy, Organizations and Entrepreneurship
Yunus Social Innovation Center