A inteligência artificial (IA) deixou de ser apenas uma promessa futurista para se tornar parte do cotidiano das pessoas e das empresas. Mas, para além da eficiência técnica, cresce a preocupação sobre como garantir que essas tecnologias estejam alinhadas a valores éticos e humanistas. Esse é o olhar defendido por Flavia de Sá, vice-presidente de Pessoas e Operações no Grupo Viasoft, psicóloga e especialista em liderança e gestão de pessoas.
Segundo ela, construir uma 'IA com alma' significa ir além da programação e dos algoritmos. “Trata-se de desenvolver soluções que incorporem transparência, justiça, responsabilidade e privacidade, mas também empatia e sensibilidade às situações humanas”, explica. Um exemplo citado por Flavia é o Eugenius, solução criada pela Viasoft que combina inteligência artificial com a sabedoria do educador Eugênio Mussak, estimulando reflexões profundas em vez de oferecer respostas genéricas.
Esforço interdisciplinar
A executiva reforça que a humanização da IA não é responsabilidade exclusiva de engenheiros e cientistas da computação. Pelo contrário, é um esforço interdisciplinar. Filosofia, psicologia, sociologia, antropologia, direito e até as artes têm papel essencial nesse processo, contribuindo com diferentes perspectivas para que a tecnologia seja usada de forma ética e inclusiva.
Na filosofia, por exemplo, estão os princípios éticos que orientam o debate. Já a psicologia traz compreensão da mente humana para interações mais empáticas. A sociologia ajuda a evitar a perpetuação de desigualdades, enquanto a antropologia assegura a sensibilidade cultural. O direito cria marcos regulatórios, e as artes promovem pensamento crítico e sensibilidade ética.
Esse ecossistema de saberes, afirma Flavia, é fundamental para que a inteligência artificial não seja apenas uma proeza tecnológica, mas também um avanço para a humanidade. “A colaboração entre áreas do conhecimento é a chave para tornar a IA verdadeiramente humanizada”, observa.

Valores éticos
Outro ponto central está na incorporação de valores éticos desde o início do desenvolvimento tecnológico. Flavia defende o conceito de 'design ético', que prevê a integração de princípios éticos já na concepção dos projetos. “Isso envolve refletir sobre os impactos potenciais antes mesmo da primeira linha de código”, pontua.
A questão dos dados é um dos maiores desafios nesse campo, afirma Flavia. Para evitar vieses algorítmicos, é essencial que os sistemas sejam treinados com informações representativas e imparciais, abrangendo diferentes contextos sociais, culturais e demográficos. “Se a base de dados reflete preconceitos existentes, a IA inevitavelmente reproduzirá esses padrões”, alerta.
Outro princípio fundamental é a transparência. Flavia destaca a importância da chamada 'IA explicável' (XAI), que permite aos usuários entenderem como as decisões são tomadas. Esse aspecto é crucial para aumentar a confiança na tecnologia e para corrigir eventuais erros e distorções.

“A responsabilidade também precisa estar no centro da discussão. É imprescindível definir quem responde quando um sistema de IA causa danos — seja o desenvolvedor, o fabricante ou a empresa usuária. Mecanismos como comitês de ética e auditorias independentes são apontados como alternativas viáveis”, explica.
Para ela, uma abordagem ética envolve ainda entender a IA como parceira da inteligência humana, e não como substituta. A decisão final, principalmente em áreas críticas como medicina, justiça e segurança, deve sempre permanecer sob responsabilidade humana.
Flavia também defende a importância de regulamentações claras, capazes de estabelecer padrões para todo o setor. “Governos, organizações internacionais e sociedade civil precisam atuar juntos na criação de diretrizes que garantam o uso responsável da tecnologia”, afirma.
Mas, se desenvolvida sem princípios humanistas, a inteligência artificial pode se tornar um risco para a sociedade. Flavia alerta para a possibilidade de amplificação de desigualdades, erosão da privacidade, disseminação de desinformação e perda de controle sobre sistemas autônomos. “Uma IA sem bússola moral é perigosíssima”, resume.
Para ilustrar, ela compara a IA a um espelho, “Ela não inventa nada, apenas reflete o mundo em que vivemos. Se esse mundo é desigual, a IA refletirá exatamente isso. Esse raciocínio precisa guiar as empresas no momento de treinar e supervisionar seus sistemas”, pondera.
Diversidade social
No ambiente corporativo, o desafio é garantir que a tecnologia seja inclusiva e represente a diversidade social. “Cito como exemplo o caso de empresas de streaming: se os dados refletem apenas gostos urbanos, artistas regionais e comunidades menores acabam invisibilizados. A consequência é tanto a exclusão cultural quanto a perda de oportunidades de negócio”.
Para evitar esse cenário, a executiva sugere três caminhos: buscar dados diversos desde o início, manter supervisão humana constante e criar canais de transparência com os usuários. “Mais do que código, a IA é um reflexo dos valores das organizações 'Só será inclusiva se houver uma intenção genuína de inclusão”, ressalta.

XIII CONPARH
Flavia de Sá foi uma das palestrantes do XVIII CONPARH – Congresso Paranaense de Recursos Humanos, realizado nos dias 22 e 23 de outubro, em Curitiba. Sua abordagem estava, perfeitamente, alinhada ao tema central do encontro “Tudo que só o humano pode fazer, e resultou em reflexões profundas sobre a tecnologia e relações entre pessoas.

