Se você é jovem há tanto tempo quanto eu, deve lembrar da época em que o gerente do banco parou de resolver tudo. Do dia para a noite, muitas coisas foram simplificadas mas, quando elas davam problemas, não havia mais aquele mecanismo de ligar para o gerente e ouvir "deixa que eu resolvo, passa depois aqui para assinar". Eles passaram a dizer coisas esquisitas como "desculpa, mas isso o Sistema não permite". Naquela época longínqua, ficávamos indignados. Hoje, é natural que injustiças reais contra pessoas reais sejam cometidas por obra e graça do Algoritmo.
Há quem diga que estamos emburrecendo mas eu sou uma eterna otimista e prefiro outra explicação. Aprendemos, de cabeçada em cabeçada na porta, que é muito mais fácil driblar o Sistema do que tentar fazer com que alguém o conserte. O mesmo vale para o Algoritmo. Há, no entanto, uma diferença fundamental entre uma situação e outra. As grandes empresas e o poderio econômico continuaram tendo sua sala vip na época do Sistema. Na era do Algoritmo, estamos todos de arquibancada. Isso tem consequências.
Estar no universo digital é hoje obrigatório para praticamente todos os setores da economia. O Algoritmo, tratado como vice-Deus ou entidade autônoma, não passa de uma sequência numérica feita por humanos para determinar tarefas às máquinas. Os limites éticos, morais e legais para a execução das tarefas podem ou não ser colocados nessas instruções, é uma decisão humana. Para além da questão de certo e errado, estamos falando da regulação da economia. Existem regras para que a competição seja justa, quando elas são atropeladas para alguém ganhar mais, invariavelmente outro será tratorado.
As críticas à comunicação digital são infindáveis, só que ela veio para ficar, é uma realidade. Não podemos ignorar os inúmeros benefícios das plataformas digitais e da Inteligência Artificial para a humanidade e o mundo de possibilidades que foi aberto para o desenvolvimento humano. É possível integrar novas indústrias à lógica da digitalização e da inteligência artificial sem cair nos mesmos problemas éticos e regulatórios que temos hoje? A London School of Economics está fazendo um experimento com órgãos de comunicação da Europa.
Desde o início da pandemia se percebeu que a utilização de sistemas digitais e inteligência artificial seria naturalmente acelerada nos meios de comunicação, devido à combinação do isolamento com incerteza e alta demanda por informações confiáveis. Você até já deve ter visto por aí experiências em que "robôs" ou programações de inteligência artificial escrevem textos, editam imagens, até montam vídeos sem a interferência humana no processo, apenas na programação inicial.
No mundo do Direito, essa aplicação já é uma realidade tanto para processos judiciais quanto para recursos de multas de trânsito. As taxas de sucesso da união homem-máquina nessa área já são impressionantes. No entanto, há uma diferença importante: o controle humano da entrega final. Ainda que pesquisas, argumentação ou até probabilidades de estatégia jurídica sejam analisadas por inteligência artificial, quem decide sobre o caso é um ser humano. Existe, dessa forma, um controle sobre o produto final que a interface com a tecnologia deixará para a sociedade. Não é o caso das redes sociais nem do jornalismo.
No jornalismo, a partir do momento em que se desenvolve a programação da inteligência artificial e se traça a rotina de tarefas a serem cumpridas, princípios a serem respeitados e limites a observar, o produto sai automaticamente para consumo final. Até este ano, o principal uso da inteligência artificial nas redações era para avaliação de performance dos conteúdos e impulsionamento de vendas. Já existia algum risco de haver conflito entre princípios éticos e performance. Quando se trata da produção de informação, esses riscos são elevados em muitas proporções.
É por isso que a London School of Economics fez, em março, um chamamento a veículos de imprensa para um trabalho colaborativo sobre usos da inteligência artificial no jornalismo e como estabelecer parâmetros éticos que garantam a manutenção dos princípios da organização no resultado final das ações. "Enquanto todos nós nos adaptamos ao impacto da pandemia do coronavírus na maneira como vivemos e trabalhamos, os jornalistas veem a colaboração internacional como uma oportunidade, apesar, ou mesmo por causa das crescentes restrições à inovação. Pessoas em uma variedade de organizações de notícias ao redor do mundo, de marcas locais a internacionais, nos disseram que, em muitos casos, a inovação de longo prazo teve que ficar em segundo plano para tarefas mais urgentes", diz o site do Journalism AIColab da LSE.
No mundo todo, os líderes de organizações jornalísticas sabem que a inteligência artificial, no modelo interação homem-máquina, é o futuro do setor. É natural que antes da pandemia a maioria já tivesse uma programação de médio e longo prazo para avançar no uso desses sistemas e na sua integração aos processos jornalísticos tradicionais. Ocorre que muitos desses planos foram atropelados por novas necessidades urgentes que passaram a surgir em virtude da pandemia.
Já sabemos dos riscos do uso de plataformas digitais sem pensar nas consequências é irresponsável. As redes sociais foram se desenvolvendo ao sabor do vento e contendo danos à medida que são causados. Com o jornalismo, outro modelo econômico é possível, aquele que parte da relação de causa e consequência da interação entre seres humanos e inteligência artificial, tendo como prioridade os princípios jornalísticos e das organizações. Parece uma ideia sensacional, a questão é como colocar em prática. Isso que o Jornalism AIColab tenta fazer, traçar modelos e acompanhar se eles realmente funcionam.
Diversas empresas de vários países trabalham juntas, em projetos paralelos, cada um voltado para a realidade da própria organização. São elas: AFP (França), Archant (Reino Unido), Axel Springer (Alemanha), Bayerischer Rundfunk (Alemanha), Deutsche Welle (Alemanha), The Guardian (Reino Unido), Jagran New Media (Índia), Mediafin (Bélgica), La Nación (Argentina), Nice-Matin (França), Reach plc (Reino Unido), La Repubblica (Itália), Reuters (global), RTVE (Espanha), Schibsted (Países Nórdicos), South China Morning Post (Hong Kong), Der Spiegel (Alemanha), VRT News (Bélgica) e Yle News Lab (Finlândia).
Há um problema grave com a programação das redes sociais que vem de base, a falta de impor ao algoritmo qualquer limite ético, moral ou de respeito à dignidade humana. Vemos hoje uma tentativa de consertar o avião voando, empresas bilionárias que não conseguem se manter na legalidade e, dia após dia, vão enfrentando embates com governos e com outros ramos da economia. À medida em que a economia fica mais dependente do mundo digital, o problema fica mais evidente. A falta de cumprimento de leis e regras éticas pelas plataformas afeta negócios de empresas e pessoas físicas, problema que é possível não repetir na reestruturação forçada do jornalismo.
Um dos veículos participantes da experiência, a Bayerischer Rundfunk, BR, empresa de comunicação pública do estado alemão da Bavária, com público diário de 8 milhões de pessoas em todo o país, desenvolveu um guia com 10 princípios éticos para o uso da inteligência artificial nas redações. A iniciativa foi produzida pelo time composto de jornalistas, jornalistas de dados, especialistas em machine learning, desenvolvedores de produtos e designers. Pode ser o primeiro passo de um modelo viável economicamente para todos os produtos de comunicação, inclusive redes sociais.
"Não importa a tecnologia que usamos, nunca é um fim em si mesma. Em vez disso, deve nos ajudar a cumprir um propósito maior: fazer bom jornalismo. O uso da tecnologia orientado para o propósito orienta nosso uso de inteligência artificial e todas as outras formas de automação inteligente. Queremos ajudar a moldar a colaboração construtiva da inteligência humana e da máquina e implantá-la com o objetivo de melhorar nosso jornalismo", diz a BR sobre as recém-lançadas Diretrizes Éticas para o Uso de Inteligência Artificial. O original em inglês pode ser consultado aqui. Segue a tradução:
DIRETRIZES ÉTICAS PARA O USO DE INTELIGÊNCIA ARTIFICIAL - BR - ALEMANHA
Sempre nos perguntamos antes de empregar uma nova tecnologia: isso realmente oferece um benefício tangível para nossos usuários e funcionários da BR? O trabalho dos nossos jornalistas é e será insubstituível. Trabalhar com novas tecnologias aumentará sua contribuição inestimável e introduzirá novas atividades e funções para a redação. Para responder à questão do benefício repetidas vezes em bases sólidas, demos a nós mesmos dez diretrizes básicas para nosso uso diário de IA e automação.
1. Benefício do usuário
Implementamos IA para nos ajudar a usar os recursos em que nossos usuários nos confiam com mais responsabilidade, tornando nosso trabalho mais eficiente. Também usamos IA para gerar novos conteúdos, desenvolver novos métodos de jornalismo investigativo e tornar nossos produtos mais atraentes para nossos usuários.
2. Transparência e Discurso
Participamos do debate sobre o impacto social dos algoritmos, fornecendo informações sobre tendências emergentes, investigando algoritmos, explicando como as tecnologias funcionam e fortalecendo um debate aberto sobre o futuro papel da mídia pública em uma sociedade de dados. Estudamos o discurso da ética da IA em outras instituições, organizações e empresas, a fim de verificar e aprimorar nossas diretrizes para evitar um fosso entre a teoria e a prática. Deixamos claro para nossos usuários quais tecnologias usamos, quais dados processamos e quais equipes editoriais ou parceiros são responsáveis por eles. Quando encontramos desafios éticos em nossa pesquisa e desenvolvimento, nós os transformamos em um tópico a fim de aumentar a consciência para tais problemas e tornar nosso próprio processo de aprendizagem transparente.
3. Diversidade e foco regional
Embarcamos em novos projetos conscientes da diversidade social da Baviera e da Alemanha. Por exemplo, buscamos modelos de dialeto em aplicações de fala em texto e dados de treinamento livres de preconceitos (responsabilidade algorítmica). Trabalhamos com startups e universidades da Baviera para fazer uso da competência de IA na região e apoiar a comunidade por meio de casos de uso na indústria de mídia e na academia. Nós nos esforçamos para obter o máximo de confiabilidade em nossas operações e podemos optar por trabalhar com empresas de tecnologia escolhidas caso a caso. Sempre que possível, trabalhamos dentro de nossas redes da ARD e da European Broadcasting Union (EBU), e trazemos conscientemente os aspectos éticos de qualquer proposta de aplicação para a colaboração.
4. Cultura consciente de dados
Exigimos informações sólidas sobre suas fontes de dados de nossos fornecedores: Quais dados foram usados para treinar o modelo? Da mesma forma, buscamos integridade e qualidade dos dados de treinamento em todo o desenvolvimento interno, especialmente para evitar o viés algorítmico nos dados e tornar visível a diversidade da sociedade. Aumentamos continuamente a conscientização entre nossos funcionários para o valor dos dados e a importância de metadados bem mantidos. Apenas dados confiáveis podem produzir aplicativos de IA confiáveis. Uma cultura consciente de dados é vital para nosso trabalho diário e uma importante tarefa de liderança para a mídia de serviço público preparada para o futuro. Coletamos o mínimo de dados possível (prevenção de dados) e o máximo de dados necessários (economia de dados) para cumprir nosso mandato democrático. Continuamos a manter elevados padrões de segurança de dados e a aumentar a consciência para o armazenamento, processamento e eliminação responsáveis de dados, especialmente quando se trata de dados pessoais. Projetamos a experiência do usuário em nossos serviços de mídia tendo em mente a soberania dos dados para o usuário.
5. Personalização responsável
A personalização pode fortalecer o valor de informação e entretenimento de nossos serviços de mídia, desde que não prejudique a diversidade social e evite efeitos de bolha de filtro indesejados. Portanto, usamos análises orientadas por dados como ferramentas de assistência para a tomada de decisão editorial. E, a fim de desenvolver mecanismos de recomendação voltados para o serviço público, colaboramos ativamente com outros serviços de mídia europeus por meio da EBU.
6. Controle Editorial
Enquanto a prevalência de dados e automação introduzem novas formas de jornalismo, a responsabilidade editorial permanece com as unidades editoriais. O princípio de verificação editorial continua obrigatório, mesmo com conteúdo automatizado. Mas sua implementação muda: a verificação de cada parte individual do conteúdo é substituída por uma verificação de plausibilidade das estruturas causais nos dados e um exame de integridade rigoroso da fonte de dados.
7. Aprendizagem Ágil
Para melhorar continuamente os produtos e diretrizes, precisamos de experiência e aprendizado com projetos-piloto e protótipos. Os experimentos são uma parte explícita desse processo. Até e incluindo a fase beta, essas diretrizes oferecem orientação geral. Na fase final do candidato a lançamento, eles são totalmente vinculativos. Dessa forma, garantimos que nossa oferta de produto final atenda aos mais altos padrões, ao mesmo tempo em que incentivamos uma cultura de aprendizado e experimentação em nosso trabalho diário. Também nos comprometemos a ouvir nossos usuários, estimular seus comentários e ajustar nossos serviços se necessário.
8. Parcerias
Oferecemos um contexto de pesquisa prática para alunos e professores em universidades e colaboramos com a academia e a indústria para realizar experimentos, por exemplo, com modelos de aprendizado de máquina e geração de texto. Trocamos ideias com instituições de pesquisa e especialistas em ética.
9. Aquisição de talentos e habilidades
Dado o espectro de tecnologia dinâmica no campo da IA, garantimos proativamente que a BR tenha funcionários suficientes com as habilidades para implementar tecnologias de IA na vanguarda do setor de forma responsável e centrada no ser humano. Nosso objetivo é recrutar talentos de diversas origens com habilidades práticas de IA, que os incentivamos a empregar no jornalismo de serviço público.
10. Reflexão Interdisciplinar
Em vez de realizar análises éticas depois que recursos significativos são investidos, integramos a reflexão interdisciplinar com jornalistas, desenvolvedores e gerenciamento desde o início do pipeline de desenvolvimento. Dessa forma, garantimos que nenhum recurso seja desperdiçado em projetos que, previsivelmente, não atendam a essas diretrizes. Refletimos sobre bandeiras vermelhas éticas em nosso uso de tecnologias de IA regularmente e de forma interdisciplinar. Avaliamos essas experiências à luz do mandato da mídia pública alemã e dessas diretrizes de ética.
O projeto está sendo avaliado publicamente e ainda teremos de esperar para saber os resultados. Trata-se, no entanto, de uma mudança de visão necessária para diversas áreas econômicas: é a tecnologia que deve atender o ser humano e não o oposto. O foco do mundo mediado pela inteligência artificial não pode ser outro senão o ser humano, o respeito à dignidade, à individualidade, aos princípios e à ética. Em vez de consertar aviões voando, como fazemos hoje nas redes sociais, a ideia é primeiro entender a serviço de quem o vôo será feito para depois decidir se o avião deve decolar daquela forma.
Tecnologia não pode ser um fim em si mesma, os avanços precisam sempre estar a serviço da humanidade e reforçando os princípios humanos, jamais desafiando. Temos agora regras simples e práticas de como utilizar a tecnologia no avanço do jornalismo sem jogar o bebê fora com a água do banho. Há quem tema que a tecnologia substitua a qualidade humana. As experiências do presente nos mostram que não há viabilidade para a tecnologia que não valorize a qualidade humana. À medida em que mais setores da economia incorporam inteligência artificial no dia a dia e treinam pessoas para a tarefa, começamos a ter um direcionamento de como nossos avanços científicos podem nos ajudar a avançar ainda mais como humanidade. Incorporar cada vez mais tecnologia à vida cotidiana é uma realidade, precisamos decidir qual é a nossa prioridade: a humanidade ou o deslumbramento com o novo.
-
Censura clandestina praticada pelo TSE, se confirmada, é motivo para impeachment
-
“Ações censórias e abusivas da Suprema Corte devem chegar ao conhecimento da sociedade”, defendem especialistas
-
Elon Musk diz que Alexandre de Moraes interferiu nas eleições; acompanhe o Sem Rodeios
-
“Para Lula, indígena só serve se estiver segregado e isolado”, dispara deputada Silvia Waiãpi
Ampliação de energia é o maior atrativo da privatização da Emae, avalia governo Tarcísio
Ex-desembargador afirma que Brasil pode “se transformar num narcoestado”
Contra “sentença” de precariedade, estados do Sul buscam protagonismo em negociação sobre ferrovia
Câmara de São Paulo aprova privatização da Sabesp com apoio da base aliada de Nunes
Deixe sua opinião