
Ouça este conteúdo
A ascensão da inteligência artificial (IA) coloca em evidência uma questão central: até onde é possível delegar decisões a sistemas computacionais e o que permanece como responsabilidade exclusiva dos humanos? O debate exige compreender os dois principais paradigmas de cognição.
De um lado, o funcionalismo simbólico — no qual pensar é manipular formalmente símbolos conforme regras formais. De outro, o conexionismo, segundo o qual o pensamento emerge da dinâmica de redes neurais, sejam elas biológicas ou artificiais.
De acordo com Filipe Cassapo, especialista em inovação e diretor do LelloLab, que esteve no XVIII CONPARH realizado pela Associação Brasileira de Recursos Humanos do Paraná (ABRH-PR), a IA consegue simular comportamentos inteligentes, mas não reproduz a experiência vivida de sentir. “A inteligência artificial simula pensamento, mas não pensa. Pode parecer inteligente, mas não é inteligente. O ponto crucial reside no fato de que a IA carece de um corpo vivo, de um metabolismo, de uma rede orgânica capaz de sofrer, sentir e reagir”, explica.
Todavia, são os humanos que podem oferecer o que depende de sensibilidade biológica como, senso moral, valores, sentido de justiça, responsabilidade e compaixão. “A IA pode propor caminhos analíticos otimizados. Mas apenas o humano pode ponderar o impacto moral dessas decisões”, acrescenta Cassapo.
Ética, moral e limites da máquina
O debate sobre governança e a inteligência artificial passa pela distinção entre ética e moral. Enquanto a ética está relacionada ao cumprimento de normas codificadas, como leis e protocolos, a moral envolve julgamentos conscientes diante de dilemas que extrapolam as regras estabelecidas.
Segundo o especialista, “a IA, enquanto máquina computacional, pode ser ética, no sentido de seguir regras explícitas, mas não pode ser moral. A moral exige consciência, empatia e sofrimento, que são prerrogativas do ser biológico, não do artefato computacional”. Essa limitação se torna evidente em situações em que a aplicação automática das normas legitima práticas questionáveis, como políticas empresariais que reduzem custos, mas comprometem a dignidade humana.
Casos como o desligamento de um colaborador ilustram esse limite: a máquina pode avaliar o desempenho, mas não considera a pessoa na essência humana, e moral, integral. “A decisão final deve considerar o humano por trás dos dados. Sua história, suas fragilidades, o contexto… e isso exige sensibilidade”, completa.

Liderança em tempos de automação cognitiva
Nesse cenário, o papel da liderança assume uma nova centralidade. Mais do que nunca, liderar será um ato profundamente e exclusivamente humano. Segundo Cassapo, o papel do líder não é mais o de propor processos, formas de operar analiticamente, mas o de decidir moralmente por onde seguir, em situações em que não parece haver certo ou errado, em situação de ‘talvez’, de ‘sim e não’, de ‘depende’.
Frente à desafios globais, como a crise climática e a saúde mental no ambiente de trabalho, a preservação da vida e da dignidade humana não deve ser tratada como variável secundária em meio à busca por eficiência. Assim, liderar em um ambiente de automatização cognitiva exige um “saber-ser”, que não pode ser replicado por máquinas.
