Será que o Google enfim amadureceu? O cuidado com que a empresa vem
tratando a tecnologia de reconhecimento facial parece confirmar essa
tese. Basta compará-lo ao Facebook que, tendo apresentado sua tecnologia
de reconhecimento facial em junho, se viu apanhado em uma onda mundial
de rejeição às suas propostas devido a preocupações com privacidade. No
entanto, o Google foi mais afortunado: algumas semanas atrás, a
companhia revelou tecnologia para identificar amigos em fotos postadas
na sua rede social Google + --e quase ninguém reparou.
As reações diferentes são fáceis de explicar: o Facebook instalou esse
recurso para todos os usuários sem pedir sua permissão, enquanto o
Google tornou sua ferramenta opcional. O Facebook agora talvez esteja
adotando essa abordagem mais polida: o recente acordo entre a empresa e a
Comissão Federal do Comércio norte-americana estipula que todas as
futuras mudanças nos controles de privacidade existentes requererão
autorização dos usuários.
A web parece estar abandonando a mentalidade da opção compulsória,
característica dos brutamontes mandões --ou seja, "sabemos que vocês vão
adorar esse recurso, e por isso ele será habilitado automaticamente--
em troca da mentalidade de adesão voluntária que caracteriza os
diplomatas mais habilidosos --"ei, veja só como é bacana esse novo
recurso-- mas só se você estiver interessado". Como demonstra a adesão
do Facebook ao "compartilhamento sem fricção", uma coisa é nos forçar a
compartilhar aquilo que estamos ouvindo alterando sem nossa permissão os
controles de privacidade em nossas páginas; já convencer os usuários de
que essa é a coisa certa --e bacana-- a fazer é questão bem diferente. A
primeira atitude é uma ofensa. A segunda, uma causa de celebração.
E no entanto, o triunfo da adesão voluntária não é bem o que parece.
Embora seja certamente menos coerciva, a adesão voluntária ainda faz com
que a tecnologia subjacente --no caso, a de reconhecimento facial--
pareça normal e aceitável. Mas as companhias de tecnologia não
reconhecem o fato. "A decisão cabe totalmente aos usuários. O que
importa é dar mais controle aos usuários. Não os estamos forçando a nada
--as pessoas podem optar por ficar de fora". Essa retórica morna de
"dar poder ao usuário" vem sendo a base do evangelho do Vale do Silício
há décadas. Tem por base uma crença ingênua em que tecnologias são
apenas ferramentas e que seu impacto é instrumental. Assim, se os
usuários desejam usar a ferramenta X para executar a tarefa Y, a única
coisa que precisa ser debatida é a desejabilidade da tarefa Y. Que a
adoção ampla da ferramenta X possa deflagrar um inesperado efeito Z é
algo que jamais incomoda aos instrumentalistas, ou se o faz, eles
simplesmente descartam o fator como algo de incalculável.
No entanto, esse tipo de raciocínio desconsidera o fato de que as
tecnologias, além de servirem a suas funções imediatas, também causam
efeitos ecológicos --na verdade, transformam ambientes, ideologias,
usuários, relações de poder e outras tecnologias. Assim, embora carros
possam ser uma maneira de chegar do Ponto A ao Ponto B, ninguém deveria
se concentrar apenas nesse aspecto e desconsiderar o que a cultura do
automóvel mais ampla pode estar causando em termos de qualidade e até
mesmo modos de vida nas cidades, índices de poluição ou estatísticas de
mortalidade. O foco nos usos imediatos de um artefato --quer seja de
adesão compulsória ou voluntária- parece ser uma má maneira de resolver o
"problema do carro".
Da mesma forma, presumir que uma dada tecnologia não é problemática
porque seus usuários podem desativá-la parece pouco sensato. Por que
deveríamos descartar a possibilidade de que, assim que número suficiente
de pessoas opte por usá-la, a adoção coletiva dessa tecnologia possa
transformar dramaticamente o ambiente social, fazendo da opção de não
usá-la algo pouco desejável, ou até impossível? Considere os espaços
públicos na Califórnia: assim que número suficiente de californianos
optaram por usar o carro, algo mudou --tanto em termos de infraestrutura
pública quanto de normas- e isso fez da Califórnia um ambiente nada
propício a viver sem carro. O carro continua a nos levar do Ponto A ao
Ponto B, mas será que nossa qualidade de vida não seria muito melhor se
tivéssemos tentado antecipar seus efeitos colaterais e desenvolver uma
visão mais multifacetada da tecnologia automobilística?
Agora, voltando ao tema das tecnologias automatizadas de reconhecimento
facial, eis o que sabemos: é fácil usá-las para fins abusivos. Um
serviço de busca que identifique nomes de pessoas com base em suas fotos
seria muito popular junto aos ditadores, sempre ávidos por reprimir os
protestos populares. Também sabemos que a tecnologia de reconhecimento
facial já conquistou espaço em muitas áreas. É uma maneira popular de
proteger celulares e laptops e evitar uso não autorizado. É usada em
muitos consoles de videogame para criar uma experiência de jogo mais
personalizada. Também é utilizada para identificar --em tempo real!-- o
número de frequentadores de cada sexo em um bar. E a lista é muito mais
longa.
Usos aparentente inócuos como esses estimularam o surgimento de uma nova
geração de empresas que buscam usos novos para essa tecnologia --nem
todos inócuos, e muitos dos quais antevistos por seus críticos. Quando o
público geral acordar, a tecnologia terá, é claro, se incorporado de
tal forma à nossa cultura que será tarde demais para fazer alguma coisa.
Em certo sentido, estamos lidando com um processo mais sinistro que a
noção popular de um "efeito borboleta" --a ideia de que uma borboleta
batendo as asas no Brasil pode deflagrar um tornado no Texas. Talvez o
melhor nome seja "efeito Palo Alto": um usuário despreocupado em Palo
Alto que decida optar pelo uso da tecnologia de reconhecimento facial do
Google termina fortalecendo um ditador em Damasco. Por que "sinistro"?
Porque o usuário de Palo Alto, ao contrário da borboleta, pode antecipar
o que virá --mas prefere não fazê-lo.
O que se pode fazer? Bem, podemos impor essa carga ética aos usuários de
Internet e sensibilizá-los quanto às consequências posteriores (ainda
que indiretas) de suas escolhas. Existem muitos precedentes quanto a
isso. As crescentes preocupações quanto à desigualdade econômica,
mudança do clima e mão-de-obra infantil resultaram no movimento de
"consumo ético", que tenta levar o consumidor a considerar as
ramificações éticas de seu comportamento no mercado.
Da mesma forma, por que não pensar em aplicar conceitos semelhantes ao
nosso envolvimento com a Internet? O que seria necessário para uma
"navegação ética" ou "rede social ética"? Jamais usar sites que
empreguem técnicas de reconhecimento facial? Recusar fazer negócios com
empresas de Internet que cooperem com a Agência Nacional de Segurança
(NSA), [a organização que cuida da espionagem eletrônica
norte-americana]? São escolhas que teremos de fazer se não desejamos que
a Internet seja uma área isenta de ética. Afinal, o uso irrefletido da
tecnologia, assim como o consumo irrefletido, não cria bons cidadãos.
Mas as companhias de Internet também precisam fazer sua parte. É claro
que o Google e o Facebook são diferentes das grandes empresas rapaces
que exploram trabalhadores rurais e crianças. Nenhuma delas está criando
ferramentas de vigilância que poderiam ser usadas por ditadores. O que
elas fazem, porém, é ajudar a criar uma infraestrutura técnica e
ideológica para que essa cultura surja de maneira aparentemente natural.
Isso não oferece argumentos fortes em favor da regulamentação --mas
abre as portas a ativismo cidadão, boicotes e, se tudo mais falhar,
desobediência civil.
As companhias de Internet sabem perfeitamente que têm responsabilidades.
No começo do ano, Eric Schmidt, presidente do conselho do Google,
classificou a tecnologia de reconhecimento facial como "sinistra" e
expressou preocupação quanto a ela. Mas sua companhia acaba de endossar
essa tecnologia --ainda que com a cláusula de adesão voluntária. O
Google imagina que isso o proteja de acusações de comportamento
antiético; afinal, a decisão cabe ao usuário. Mas será que nos
deixaríamos persuadir se as companhias petroleiras alegassem que, se
você se preocupa com a mudança do clima, não deveria dirigir um Humvee?
Talvez não. É por fingirem não saber como esse triste filme acaba que as
companhias de tecnologia cometem seu maior deslize ético.
Nenhum comentário:
Postar um comentário