• Carregando...
Dentre as ameaças da IA figuram ataques cibernéticos e até a hipotética IA senciente
Dentre as ameaças da IA figuram ataques cibernéticos e até a hipotética IA senciente| Foto: Reprodução / Youtube Paramount Pictures

O que grandes nomes da tecnologia como Elon Musk, dono da Tesla, SpaceX e Twitter, Steve Wozniack, cofundador da Apple, e Sam Altman, cofundador e CEO da OpenAI, que lançou o ChatGPT, têm em comum com o secretário-geral das Nações Unidas (ONU), António Guterres? Todos estão preocupados com os perigos da Inteligência Artificial.

Em sessão inédita sobre tecnologia e inteligência artificial do Conselho de Segurança, realizada no dia 18 de julho, Guterres sugeriu a criação de uma entidade específica vinculada à organização para tratar da IA, de seus benefícios para a humanidade e as nações, e da mitigação de potenciais riscos, dentre os quais inclui a sua utilização para fins terroristas e o uso de armas letais autônomas.

“O uso malicioso de sistemas de IA para fins terroristas, criminais ou estatais pode causar níveis horríveis de morte e destruição, trauma generalizado e danos psicológicos profundos em uma escala inimaginável”, disse.

Para evitar essas e outras ameaças, ele afirmou que a governança da IA deve ser realizada por meio de amplo debate global com o objetivo de mapear os desafios que já se impõem na atualidade, além de monitorar e responder a riscos futuros. Para tanto, defende a integração do setor privado, da sociedade civil e de cientistas e pesquisadores do tema.

Os alertas das Nações Unidas se somam a outros de alguns dos principais nomes por trás da Inteligência Artificial como Musk, Wozniack, e Altman.

Em abril deste ano, a organização Future for Life [Futuro para a Vida], da qual Musk e e o ator Morgan Freeman, entre outros, fazem parte, publicou uma carta aberta na qual afirma que a “IA avançada pode representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com cuidado e recursos proporcionais”.

A hipótese da singularidade 

Os receios mais comuns e até palpáveis elencados por alguns dos especialistas do setor giram em torno de golpes e falsificações, substituição de mão de obra por soluções de IA, assim como a manipulação de conteúdo para gerar vieses e censurar determinadas ideologias nas respostas de ferramentas como o ChatGPT.

Há um ponto, no entanto, em que o tema extrapola os danos passíveis de serem causados pela gestão humana da IA e, portanto, qualquer projeção. Uma das preocupações mais alarmantes e, porque não apocalípticas, é a possibilidade de que esteja próximo o momento da singularidade, em que IA comece a tomar decisões por conta própria, ultrapassando a inteligência e o poder decisório de humanos.

Em entrevista à Fox News, na qual tratou das ameaças envolvidas no desenvolvimento sem freio da tecnologia, Elon Musk se disse contrário ao tratamento igualitário que alguns profissionais da área querem dar à inteligência artificial e à humana. “Principalmente quando a digital deseja suplantar a biológica”, comentou.

Para que essa suplantação seja possível, os sistemas de inteligência artificial precisam alcançar e extrapolar as capacidades humanas em diversas áreas de forma simultânea, ou seja, elas praticamente precisam simular as capacidades de um ser humano.

Segundo Musk, algumas soluções parecem ter chegado lá. “O ChatGPT já passou do que muitos humanos alcançaram, a maior parte dos seres humanos não escreve tão bem quanto o ChatGPT, e nenhum humano escreve tão bem e tão rápido quanto ele”, destacou.

Mas são muitas as vozes a discordar de que já estejamos próximos ou que sequer chegaremos a este nível. Segundo Maurício Seiji, doutor em engenharia de software, ainda que algumas soluções já possam chegar próximo a resultados humanos, ainda estamos muito longe de atingir a singularidade.

"Se você me perguntar se é possível, eu direi que é. Na época em que eu estava na faculdade, se você me dissesse que hoje teríamos as ferramentas de produção de texto, de tradução, de produção de vídeo ou carros que dirigem sozinhos, eu diria que não seria possível, e hoje tudo isso é realidade", ressaltou.

Ele ainda destaca que os erros que as IAs atuais cometem e que são pouco divulgados, demonstram que ainda há um caminho a ser percorrido para chegar a um sistema autoconsciente.

"Se você treina uma IA para dar uma resposta que ela não tem, ela pode criar uma alucinação, que são soluções totalmente erradas. Ela vai mentir com convicção. Por outro lado, algumas vezes há divergências e, ao invés de seguir um caminho coerente, ela desvia totalmente, podendo chegar a resultados preconceituosos ou ofensivos, por exemplo".

O que esperar de uma IA autoconsciente?  

Nenhum especialista, no entanto, é capaz de dizer realmente quais são os riscos que a IA senciente pode trazer. “A IA não tem a experiência evolutiva que nós temos, então não sabemos se suas decisões serão no sentido de realizar conquistas e de se privilegiar”, destaca Marcos Rogério, diretor de produtos e projetos de IA e especialista no tema.

“Ela pode não ter interesse em petróleo ou divisas, mas pode se interessar por adquirir mais capacidade de processamento e pode se programar para isso”, comenta. Uma discussão recorrente é o que a IA faria se chegasse à conclusão de que os humanos são prejudiciais ao planeta, contrários a determinadas diretrizes daqueles que as criaram ou de governos autoritários.

O sistema de créditos sociais na China, por exemplo, é implementado e mantido por meio de soluções de IA, que rastreiam, catalogam e categorizam uma série de informações utilizadas para gerar uma nota social para cada cidadão chinês.

As pessoas com notas elevadas recebem benefícios, enquanto as que possuem nota baixa, em geral aquelas que se contrapõem às diretrizes do Partido Comunista, enfrentam restrições para acesso a hospitais, viagens, educação.

No entanto, tanto os benefícios quanto as restrições impostas aos cidadãos são fruto das diretrizes dos governantes chineses. Mas o que ocorreria se essas decisões fossem tomadas pela própria IA? Qual sorte ela escolheria para esses seres humanos?

Uma das principais capacidades dos sistemas de IA é identificar padrões e aprender com eles, assim como as crianças aprendem pelo exemplo dos pais e responsáveis. Em uma rede na qual circula todo tipo de informações a respeito de todas as ações humanas, sejam benéficas, sejam atrocidades, o que esperar que uma IA aprenda?

E o mais importante: como freá-la diante de possíveis decisões que se baseiem, por exemplo, em crimes contra a humanidade, genocídio, perseguições, guerras e outros tantos exemplos que a história oferece?

Uma das formas de limitar esse tipo de aprendizado e suas consequências é construir programas que possam barrar determinadas decisões e ações da IA, como os antivírus fazem nos computadores. Dessa forma, os sistemas e soluções tecnológicas poderiam ser impedidos, por exemplo, de criar mentiras ou acionar uma arma nuclear.

No entanto, essa estratégia também tem seus pontos frágeis. "Os sistemas biológicos funcionam segundo a lógica da presa e do predador. A presa tende a evoluir para escapar do predador, o predador tende a evoluir na mesma medida para seguir capturando a presa. Ao tentarmos limitar a IA, o que pode acontecer é que ela busque outros caminhos para realizar aquilo que tentamos impedir que ela faça”, explica Rogério.

Além dos graves riscos hipotéticos que a singularidade pode oferecer, há outros, no entanto, bem mais plausíveis e que já tem a capacidade de afetar de forma contundente o dia a dia de qualquer ser humano.

Substituição da mão de obra por IA 

A substituição de uma parcela significativa da força de trabalho por sistemas de IA é um dos mais eminentes, mesmo que não seja a primeira vez que os homens são substituídos pela tecnologia. O diferencial é a rapidez e o alcance que essa troca pode alcançar em nossos dias.

Nas ondas anteriores de automação, as funções ligadas ao chão de fábrica foram afetadas. Agora, as novas soluções de linguagem e criação de imagens, por exemplo, muito provavelmente irão substituir profissionais de áreas criativas.

Um contra-argumento afirma que algumas das soluções ainda não alcançaram um nível ótimo que as faça substituir, de forma confiável, os humanos. A IA forneceria, deste modo, tão somente uma capacidade aumentada para apoiar o homem em suas funções.

Seiji não é tão otimista. Ele argumenta que as ferramentas atuais já produzem conteúdos de grande qualidade, que são difíceis de distinguir daqueles produzidos pelos métodos tradicionais. "Pode não acontecer muito rapidamente, mas é um fato que irá ocorrer", comenta ele a respeito dessa substituição da mão de obra.

A questão ainda vai além, como demonstra a recente greve de atores e roteiristas em Holywood, por exemplo. Alguns figurantes relataram que os estúdios quiseram comprar o direito de uso de suas imagens por tempo indeterminado, para reproduzi-las em quaisquer filmes por meio de tecnologias generativas. Já os roteiristas dizem que seu trabalho corre o risco de ser feito por chatbots que foram treinados com base nos roteiros de sua autoria.

Ameaças, golpes e fraudes a partir da IA  

Com o aprimoramento de ferramentas de geração de vídeo e som, que produzem os chamados deepfake (técnica que sintetiza imagens e sons), entre outras, o número de golpes pode crescer de forma bastante acentuada.

Mensagens fingindo ser um familiar que precisa de dinheiro, extorsão por vídeos comprometedores usando imagens falsas, usurpação de direitos autorais de pessoas já falecidas, são apenas alguns dos golpes que podem ser aplicados.

Além disso, existe o risco de que grupos de hackers possam invadir sistemas de IA e ter acesso a informações de segurança pública e militar. Outra possibilidade é que estabeleçam diretivas prejudiciais que levem as IAs a causar danos a determinados indivíduos, grupos, softwares, hardwares e organizações.

Outra preocupação constante é a manipulação da opinião pública, a perseguição ou banimento de determinados pontos de vista. Segundo Rogério, é possível que as soluções sejam treinadas para gerar respostas enviesadas, tendenciosas e até a mentir.

“Um grupo de pessoas, com determinadas preferências, pode fazer o reforço positivo intencional de determinados conteúdos que sejam preconceituosos, por exemplo. Isso faz com que esses conteúdos sejam mais replicados e difundidos. Além disso, a IA aprende que ele é bom e passa a utilizá-lo mais vezes como parâmetro para suas respostas”, comenta.

Sam Altman, cofundador e CEO da OpenAI, admite que há riscos e que é preciso cautela em relação à IA, mas que a simples percepção de sua existência é positiva.

Em entrevista à rede de TV norte-americana ABC, ele disse que "as pessoas devem ficar contentes por estarmos com medo de tudo isso" ao se referir a um cenário de possíveis resultados danosos, que incluem o uso de modelos para gerar desinformação em larga escala e a possibilidade de que códigos de computador sejam criados para gerar cyber ataques ofensivos.

“Eu acho que a sociedade precisa de tempo para se adaptar. Nós adaptaremos as ferramentas tão logo algumas dessas coisas ruins ocorram”, concluiu Altman. Os possíveis danos causados por essas “coisas ruins” e o seu alcance não foram abordados pelo executivo.

0 COMENTÁRIO(S)
Deixe sua opinião
Use este espaço apenas para a comunicação de erros

Máximo de 700 caracteres [0]