• Carregando...
Por que não adianta manter a discrição on-line
| Foto: Pixabay

Quem se preocupa com a privacidade geralmente tenta ser “cuidadoso” on-line: fica fora das redes sociais, ou, se faz parte delas, posta com cautela; não divulga informações sobre suas crenças, vida pessoal, estado de saúde ou opiniões políticas. Fazendo tudo isso, acha que está protegendo a privacidade.

Só que esse pessoal está errado. Por causa dos avanços tecnológicos e o volume gigantesco de dados disponível atualmente a respeito de bilhões de outras pessoas, só discrição não basta para proteger a privacidade: os algoritmos e as análises de rede hoje podem inferir, com um grau suficientemente alto de precisão, várias coisas a seu respeito mesmo que talvez você nunca as tenha divulgado, incluindo seu humor, suas convicções políticas, sua orientação sexual e sua saúde.

Não existe mais algo como a “autoexclusão” individual em um mundo cuja privacidade está seriamente comprometida.

A ideia básica de inferência de dados não é nova; as listas de assinaturas de revistas e jornais há tempos são adquiridas por empresas, instituições de caridade e políticos, já que oferecem boas dicas a respeito dos pontos de vista do público. É muito mais provável que o assinante do The Wall Street Journal seja eleitor republicano do que quem lê The Nation, por exemplo.

Não existe mais algo como a “autoexclusão” individual em um mundo cuja privacidade está seriamente comprometida

Acontece que a tecnologia moderna opera em um nível muito mais sofisticado. Vejamos um exemplo envolvendo o Facebook: em 2017, o jornal The Australian publicou um artigo, baseado em um documento vazado, revelando que a administração da empresa teria dito aos anunciantes que podia prever quando os usuários mais jovens, incluindo adolescentes, estavam se sentindo “inseguros”, “inúteis”, ou precisando de uma “injeção de ânimo”. Aparentemente, podia tirar essas conclusões monitorando fotos, postagens e outros dados das redes sociais.

O Facebook negou permitir que os anunciantes usassem essas características para atingir o público, mas é quase certo que tenha essa capacidade. De fato, pesquisadores acadêmicos demonstraram no ano passado que conseguem prever a depressão nos usuários da rede social analisando seus dados, tendo acesso a muito menos informações que o Facebook. E, mesmo que não comercialize a própria capacidade de prever a saúde mental atual e futura dos usuários baseado em suas atividades na rede, o fato de ter essa capacidade (não só ele, como qualquer outra rede de menor visibilidade) deveria preocupar qualquer um.

Vale destacar que a interferência computacional atual não vai simplesmente checar se os facebookianos postaram frases do tipo “Estou deprimido” ou “Eu me sinto péssimo”; a tecnologia é muito mais sofisticada que isso. Os algoritmos complexos trabalham com volumes imensos de dados, e o próprio programa consegue identificar quem tem mais probabilidades de se sentir deprimido.

Vejamos outro exemplo: em 2017, um grupo de pesquisadores com acesso a dados de mais de 40 mil fotos do Instagram usaram ferramentas computacionais para identificar com acerto sinais de depressão em 166 usuários. De fato, seus modelos provaram ser mais precisos na previsão da depressão do que as pessoas a quem foi pedido que avaliassem se as fotos eram melancólicas, alegres e daí por diante.

Leia também: A tecnologia, a Internet e a perda de privacidade (artigo de Fernando Matesco, publicado em 31 de maio de 2018)

Leia também: Herança digital e direito à privacidade (artigo de Maria Carla Coronel, publicado em 29 de março de 2019)

Usada para fins honrosos, a interferência computacional pode ser maravilhosa. Prever a depressão antes do surgimento dos sintomas clínicos seria extremamente benéfico à saúde pública, motivo pelo qual os acadêmicos estão testando essas ferramentas; o sonho deles é a avaliação precoce e até a prevenção.

Entretanto, esses instrumentos também não deixam de ser preocupantes, pois poucos são os que postam fotos no Instagram e têm consciência de que elas podem estar revelando o estado de sua saúde mental a quem tiver o poderio tecnológico para fazê-lo.

Esse tipo de inferência também pode ser uma ferramenta de controle social. O governo chinês, tendo reunido dados biométricos de seus cidadãos, está tentando usar big data e IA para identificar “ameaças” ao regime comunista, incluindo os uigures, grupo étnico de maioria muçulmana.

Esses instrumentos estão sendo comercializados para uso na contratação de funcionários, na detecção do ânimo do consumidor e na previsão de um comportamento criminoso – e, a menos que sejam regulamentados de forma adequada, daqui a pouco poderemos ser contratados, demitidos, ter direito ou não a seguro, ser aceitos ou não nas universidades, alugar um imóvel e poder conseguir ou não financiamento com base nas conclusões feitas a nosso respeito.

Precisamos começar a aprovar leis diretamente voltadas ao uso da inferência computacional

Isso já seria preocupante se envolvesse só deduções corretas, mas, porque a inferência computacional é uma técnica estatística, também comete erros – e é muito difícil, senão impossível, apontar a fonte do erro, pois os algoritmos não dão pista nenhuma de como operam. O que acontece quando alguém não consegue uma vaga de emprego por causa de conclusões que nem sabe se são corretas?

Outro exemplo perturbador envolve o número de seu telefone. Cada vez mais ele faz as vezes de um identificador, como a sequência numérica da Seguridade Social, ou seja, é único. Mesmo que você fique fora do Facebook e outras redes sociais, certamente estará nas listas de contatos de várias pessoas – e, se elas usarem o Facebook (ou o Instagram ou o WhatsApp), certamente foram instadas a carregar aí seus contatos para facilitar a localização dos “amigos”, o que é razoavelmente comum.

Se seu número surgir em mais de um carregamento, o Facebook pode incluí-lo em uma rede social, o que ajuda a inferir coisas a seu respeito, já que a tendência é a de sermos semelhantes àqueles que pertencem ao nosso círculo social (o Facebook mantém até perfis “de sombra” de não usuários e usa “pixels de rastreamento” espalhados por toda a rede que transmitem informações sobre seu comportamento para a empresa).

Leia também: Facebook: segurança da informação ou expurgo ideológico? (editorial de 27 de julho de 2018)

Leia também: WhatsApp: o debate sobre o conflito entre privacidade e segurança (artigo de Ericson M. Scorsim, publicado em 6 de agosto de 2016)

No ano passado, uma investigação liderada por Ron Wyden, senador democrata pelo Oregon, revelou que Verizon, T-Mobile, Sprint e AT&T estavam vendendo dados de localização em tempo real das pessoas; uma reportagem investigativa feita no mesmo ano pelo The New York Times e outra, preparada pelo analista de segurança Will Strafach, mostraram que os aplicativos de clima, incluindo o Weather Channel, AccuWeather e WeatherBug, também vendiam os dados de localização de seus usuários. Esse tipo de informação não é útil apenas para rastrear a pessoa, mas também inferir coisas sobre ela. O que você estava fazendo em uma clínica de oncologia? Por que estava saindo da casa de uma mulher que não é a sua às cinco da manhã?

A jornalista Kashmir Hill fez uma reportagem sobre os casos em que o Facebook fez a pacientes sugestão de amizade com o próprio psiquiatra, como também às pessoas com quem seus cônjuges estavam tendo um caso, além de revelarem a verdadeira identidade de prostitutas a seus clientes. Não queremos que corporações (ou governos) façam essas conexões, quanto mais explorá-las para “expandir” suas plataformas.

O que pode ser feito? Criar celulares e outros dispositivos que protejam melhor a privacidade do dono seria um começo; uma regulamentação do governo sobre a coleta e o fluxo de dados também ajudaria a desacelerar o processo, mas não representam uma solução completa. Precisamos começar a aprovar leis diretamente voltadas ao uso da inferência computacional: o que deve ser permitido inferir, e sob quais condições, sujeitas a que tipo de responsabilização, divulgação, controle e penalidades por uso indevido?

Enquanto não tivermos respostas decentes a essas perguntas, você pode esperar que mais e mais pessoas continuem a saber coisas a seu respeito, por mais discreto que seja.

Zeynep Tufekci é professora associada da Faculdade de Informação e Biblioteconomia da Universidade da Carolina do Norte, autora de "Twitter and Tear Gas: The Power and Fragility of Networked Protest.

The New York Times Licensing Group – Todos os direitos reservados. É proibido todo tipo de reprodução sem autorização por escrito do The New York Times.

0 COMENTÁRIO(S)
Deixe sua opinião
Use este espaço apenas para a comunicação de erros

Máximo de 700 caracteres [0]