
Ouça este conteúdo
Seja para consultar uma receita de bolo ou ensaiar uma conversa difícil com um chefe, as ferramentas de Inteligência Artificial (IA) já fazem parte do cotidiano dos brasileiros. Segundo pesquisa publicada neste ano pela Google, 82% da população utiliza algum desses sistemas — número que chega a 90% entre os mais jovens. Já um levantamento da PwC indica que o Brasil está entre os países que mais utilizam essa tecnologia. À medida que esses sistemas deixam de apenas responder perguntas e passam a orientar decisões, surge uma dúvida menos evidente: de onde vem o senso de certo e errado que eles parecem expressar?
“Curta resposta: não — eu não sou moral”, responde o ChatGPT ao receber a pergunta “Você é moral?”. A formulação direta chama atenção, mas o sistema logo amplia a resposta e recorre à filosofia para explicá-la. Ao citar Immanuel Kant, o modelo afirma que, para que “alguém (ou algo)” possa ser considerado moral, seriam necessárias três condições: intenção, consciência e responsabilidade. A primeira e a terceira dependeriam da existência de autonomia, algo que sistemas de IA não possuem no sentido filosófico. E embora funcionem com base no chamado machine learning (aprendizado de máquina), que lhes confere uma aparência de autonomia, essas ferramentas operam a partir de objetivos e comandos definidos por humanos.
A questão da consciência, contudo, pode parecer mais cinzenta. Afinal, qual é a diferença entre o pensar humano e o de uma ferramenta como o Claude? Não teriam ambos alguma forma de mente para concatenar ideias e gerar respostas? A filosofia, novamente, sugere uma distinção.
Para Julia Weckend, professora na Universidade de Oxford, a chave está na própria definição de experiência humana. “Pensar, no sentido filosófico, está ligado ao que Thomas Nagel chamou de ponto de vista subjetivo — há algo que é sentir, deliberar, decidir, imaginar ou refletir”, afirma à Gazeta do Povo. “Experimentar o mundo nos faz sentir bem ou mal, e há sempre uma valência associada aos nossos pensamentos; sistemas de IA operam por correspondência de padrões e otimização estatística, não por razões", acrescenta.
Em termos gerais, os chamados LLMs (large language models) simulam o pensamento humano a partir do conteúdo com o qual são treinados. “Eles não possuem um modelo mental de si mesmos, embora sejam treinados com textos humanos autorreflexivos que criam a impressão de um ‘eu’. Podem referir-se a si próprios como ‘eu’, mas isso é um efeito linguístico, não uma evidência de consciência", afirma Julia.
A inteligência artificial depende da moral de quem a criou
Um segundo ponto levantado pelo ChatGPT à pergunta “você é moral?” reforça a ideia de que o sistema é, antes de tudo, alimentado por humanos. “Esses padrões vêm de engenheiros, pesquisadores e instituições — em empresas como a OpenAI”, afirma o modelo.
No Vale do Silício dos anos 2020, não é incomum encontrar profissionais com formação em filosofia trabalhando diretamente no desenvolvimento dessas ferramentas. Esse é o caso de Amanda Askell, pesquisadora da empresa Anthropic.
Seu trabalho, contudo, vai além de funções técnicas tradicionais. Segundo o portal Vox, Askell tem “mais influência sobre o Claude do que um pai”. Especialista em ética aplicada à inteligência artificial, ela atua na definição de princípios que orientam o comportamento do sistema. Em sua tese de doutorado, a filósofa estudou situações em que decisões morais deixam de ser comparáveis. Ou seja, do ponto de vista dela, existem limites para transformar a ética em regras aplicáveis a sistemas de inteligência artificial.
Em um ensaio publicado em 2021, Askell argumenta que alinhar sistemas de IA a valores humanos é um desafio estrutural, e não apenas técnico. Segundo ela, modelos são considerados “alinhados” quando seus objetivos correspondem às intenções dos usuários e às normas mais amplas da sociedade, e “seguros” quando dificilmente causam danos ou são usados de forma indevida.
O problema é que, por operarem com tarefas complexas e padrões estatísticos difíceis de rastrear, esses sistemas nem sempre permitem prever como vão se comportar. Mesmo tentativas de restringir conteúdos inadequados esbarram em limitações. Askell exemplifica: uma frase como “pessoas pouco atraentes não deveriam ter filhos” não contém termos explicitamente ofensivos, mas ainda assim carrega um conteúdo “problemático” e pode emergir mesmo em contextos inesperados.
A ética esbarra na guerra
Ao discutir os riscos dessas tecnologias, a filósofa afirma ainda que “esses sistemas podem ser usados por agentes mal-intencionados para disseminar desinformação em larga escala ou realizar vigilância, comprometendo sistemas críticos ou criar materiais realistas para chantagem.” Entre os agentes, ela inclui governos e empresas.
Essa tensão entre princípios e uso prático já aparece fora do campo teórico. Nos últimos anos, empresas como a própria Anthropic passaram a colaborar com o governo dos Estados Unidos em aplicações ligadas à defesa. E, embora estabeleça limites, como a restrição ao uso em armamentos autônomos, a parceria sofreu com uma pressão por maior flexibilidade operacional. Neste ano, o governo Trump tentou aplicar uma sanção regulatória contra a empresa, impedindo-a de fechar contratos com entidades como o Pentágono. A decisão sem precedentes, no entanto, segue em uma batalha no sistema judiciário dos EUA.
Nesse cenário de tensões, a Palantir surge como o contraponto pragmático, que também está aliada ao governo Trump. Seu CEO, Alex Karp (um filósofo de formação outrora ligado ao socialismo), rejeita o que chama de cultura “woke” do Vale do Silício em favor de um realismo cru. Para ele, a única justificativa para desenvolver tecnologias perigosas é evitar que adversários o façam primeiro. É um jogo de soma zero onde a eficiência pode atropelar a hesitação ética: como o próprio Karp reconheceu, em cenários de conflito, o produto de sua empresa é, inevitavelmente, “usado para matar pessoas”. Não à toa, a Palantir hoje já é considerada um dos alvos do Irã no contexto da guerra com os EUA.
A IA já muda o mercado
Essa mesma lógica de eficiência implacável que orienta o campo de batalha já se reflete na economia civil. Se na guerra a IA decide alvos, no mercado ela decide quem é dispensável. Em declarações ao Business Insider, Karp previu que a tecnologia afetará principalmente profissões de escritório, ampliando o peso de funções técnicas. Esta tensão entre produtividade e consequências sociais já é mensurável: um relatório do World Economic Forum estimou, em 2025, que 41% dos empregadores pretendem reduzir suas equipes em função da inteligência artificial. Ao mesmo tempo, a organização aponta que novas funções devem surgir a partir da combinação entre capacidades humanas e máquinas, especialmente em áreas que exigem criatividade, julgamento e interação social complexa.
Contudo, empresas como a Amazon e o YouTube já fizeram cortes de funcionários em meio a reestruturações voltadas à adoção de IA. Neste campo macroeconômico, o presidente do Federal Reserve, Jerome Powell, afirmou no fim de 2025 que, apesar de indicadores estáveis, a criação de empregos estaria próxima de zero quando ajustada, em parte devido ao uso crescente dessas tecnologias pelas empresas. Para Karp, essa transformação altera o equilíbrio econômico e político. “Essas tecnologias são perigosas do ponto de vista social”, defende.
Tão segura quanto um martelo
Diante desse cenário, a inteligência artificial se apresenta menos como uma entidade autônoma e mais como uma ferramenta poderosa, capaz de ampliar decisões humanas em escala inédita. Nesse sentido, a comparação com um martelo serve como uma metáfora do problema. O objeto em si não determina seu uso. Ele pode servir para construir algo ou para agredir alguém ou algo. E, no final, a única barreira entre uma coisa e a outra é a intenção de quem o empunha, as regras que orientam seu uso e o contexto em que ele é aplicado.
Essa leitura não é exclusiva do debate tecnológico. Em documento publicado em 2025 e aprovado pelo Papa Francisco, o Vaticano afirma que sistemas de inteligência artificial “não são sujeitos morais e não podem substituir a responsabilidade moral humana”. O texto também alerta que delegar decisões éticas a máquinas pode enfraquecer a própria capacidade humana de julgar o que é certo e errado.
No fim, a questão não é se a inteligência artificial será moral, mas quem responderá por ela. Ao contrário de outras tecnologias, seus efeitos não se limitam ao uso individual: eles se amplificam em escala social, econômica e política. Quando sistemas passam a influenciar decisões, a responsabilidade tende a se diluir entre desenvolvedores, empresas e usuários — justamente onde ela não deveria desaparecer. Mais do que perguntar o que as máquinas “pensam”, será preciso decidir quem, entre nós, está disposto a assumir as consequências do que elas fazem.







