
Artigo da autoria de Ricardo Cappra, Fundador do Cappra Institute for Data Science
A era da Inteligência Artificial é especialmente percebida como um rápido avanço tecnológico, porém essa aceleração arrasta consigo uma urgência na revisão das bases de responsabilidades nas ações automatizadas. Quando as decisões são tomadas por algoritmos que aprendem, interagem e influenciam comportamentos, é fundamental observar o comportamento da figura ética: o agente, seja ele humano ou artificial.
Neste novo ecossistema, os agentes não são apenas humanos. Máquinas e sistemas inteligentes também agem, embora não de forma autónoma no sentido moral clássico. Ainda assim, as suas ações têm impacto, produzem efeitos e exigem regulação, reflexão e, sobretudo, estruturação ética.
Portanto, a questão que se impõe não é apenas “o que a IA faz?”, mas “quem responde pelo que a IA faz?”. Responder a essa pergunta requer compreender que, na IA, a agência é distribuída, ou seja, entre humanos, dados e máquinas.
A responsabilidade distribuída nas decisões automatizadas
Como destaca o filósofo David J. Gunkel, mesmo que algoritmos sejam projetados para agir, eles não agem sozinhos. A IA está inserida em ecossistemas sociotécnicos, nos quais múltiplos agentes, tanto humanos quanto artificiais, colaboram ou colidem para gerar um resultado.
No marketing, por exemplo, essa realidade é ainda mais evidente. Campanhas orientadas por IA tomam decisões sobre quem verá o quê, quando e como, tudo isso influenciando escolhas, desejos e comportamentos. Se uma IA segmenta de forma injusta, reforça estereótipos ou manipula emocionalmente um público, quem é o responsável?
A resposta mais madura reconhece que a responsabilidade está diluída, mas não desaparece. Cada pessoa e sistema envolvido carrega parte da responsabilidade: engenheiros, analistas, designers, gestores, operadores… e sim, até mesmo os modelos de IA que aprendem com dados enviesados ou mal rotulados.
A era da IA é a era dos agentes distribuídos e híbridos. E isso exige um novo modelo de consciência ética: mais relacional, mais complexo, e também mais urgente.
Estruturando a ética da IA: princípios e fundamentos
Para lidar com essa realidade de agência compartilhada nos ambientes de tomada de decisão, propomos um framework ético que articula três níveis interdependentes:
Esses princípios não são recomendações abstratas: são fundamentos para construir confiança, prevenir abusos e alinhar o comportamento dos agentes artificiais com os valores humanos.
2. Os Níveis Éticos de Privacidade (Reid Blackman)
Para que esses princípios se sustentem no quotidiano, é necessário garantir uma base ética sólida na forma como lidamos com os dados, que é matéria-prima essencial da IA. Reid Blackman propõe cinco níveis éticos da privacidade:
Quando a coleta e o uso de dados são intensivos, esses níveis são condições mínimas para evitar práticas invasivas ou desrespeitosas, e para que os princípios de Floridi sejam aplicáveis.
Construir inteligência artificial é também construir responsabilidade
No centro da discussão sobre ética na IA está uma constatação inevitável: a inteligência artificial não age sozinha; ela age com, por e entre nós.
A responsabilidade, portanto, não é só de quem programa, nem apenas de quem opera. Ela é compartilhada entre os diversos agentes humanos e artificiais que compõem as redes de decisão do mundo digital.
Ser um agente responsável na era da IA não é apenas uma questão técnica, mas uma escolha ética contínua; uma disposição de cuidar das consequências das nossas ações num mundo onde humanos e máquinas já não agem separadamente.
Esse é o tipo de consciência que o futuro exige. E o presente já exige que comecemos a praticá-la.
Ética na IA e IA Responsável no Marketing: Por que este tema é urgente?
Curso presencial: formar agentes éticos na era da IA
Essa estrutura é o fio condutor do curso Ética na IA e IA Responsável no Marketing, promovido pela Lisbon Digital School, que acontecerá no dia 17 de Junho, das 14h às 18h, na Casa da Praia, em Oeiras.
Durante o curso, vamos explorar:
Ricardo Cappra é investigador do tema “cultura analítica”, autor e fundador do Cappra Institute for Data Science. Cappra lidera uma equipa global que pesquisa o impacto dos dados na sociedade e nos negócios e cria metodologias que aceleram o desenvolvimento analítico de organizações e pessoas.
“Estudei muitas coisas diferentes ao longo da minha vida, mas encontrei sempre algo em comum entre elas: a tecnologia – mais especificamente, a tecnologia da informação. Sou programador, mas sempre fui muito curioso sobre ciência e dados. Recentemente, surgiu um nome para o trabalho que faço, chamado Data Science“, explica.
Cappra tem no seu currículo instituições e marcas como: o Governo dos EUA, Gol Linhas Aéreas, Banco Santander, UOL, Whirlpool, Banco Mundial, Rede Globo, Banco Itaú, Unilever, Ambev, entre outros.
Preenche os campos abaixo e começa já o teu processo de inscrição no curso.
Assim que tivermos mais informações sobre o horário do curso entraremos em contacto contigo.
Preencha os dados do formulário para agendar o suporte por video chamada.