Pense em tudo o que você tem ouvido, lido e consumido de forma geral sobre o assunto Inteligência Artificial. De todo aspecto que se ouve, parece que há uma visão dominante de que esse é um processo natural, inevitável e irrefreável.
E, apesar dos problemas manifestos e incertezas envolvidas, parece que também é dominante a visão de que haverá cada vez mais benefícios sociais e econômicos no progresso digital. Especialmente nos países mais desenvolvidos, isso tem movido uma série de políticas públicas para o incentivo ao conhecimento e produção nessas áreas.
De forma geral, impera a ideia de livre mercado nesse campo e as regulações públicas aparecem apenas de forma reativa, para conter excessos como proliferação de fake news ou proteção à privacidade de dados. Mas isso tem acontecido não só de forma tímida, mas com um pensamento de muito curto prazo.
Esse é o pano de fundo para o artigo do professor Robin Mansell, da London School of Economics & Political Science, publicado na última edição da revista científica Matrizes, da Escola de Comunicações e Artes da Universidade de São Paulo.
O grande ponto do artigo é a necessidade urgente de se questionar e criticar a noção dominante de inevitabilidade da inovação tecnológica, como se fosse algo que simplesmente acontecerá de forma natural, sem que nós – sociedade, cidadãos – possamos interferir de nenhuma forma. Afinal, só o questionamento dessa visão é que nos possibilitará vislumbrar futuros alternativos.
Até porque, a inovação tecnológica não é uma espécie de “força da natureza”. A realidade é que ela reflete as decisões sociais e econômicas tomadas por atores específicos. Hoje, toda decisão sobre IA e apps é tomada única e exclusivamente pelas empresas que os desenvolvem.
E essa mediação digital da vida cotidiana contribui para assimetrias de poder, e para diminuir o controle humano sobre a tomada de decisões. Os algoritmos, por exemplo, são invisíveis e nos ocultam outros caminhos de soluções para os problemas a que se pretendem.
Hoje, fora as leis de mercado, não há nenhum tipo de input, reflexão ou mesmo premissas e restrições do poder público, salvo raríssimas exceções, que funcionam mais como freios do que como orientações.
As preocupações mais concretas [fake news, violação de privacidade, cyber crime etc.] e não questões estruturais como a influência dessas tecnologias nas questões mais sensíveis que envolvem princípios fundamentais como a dignidade humana, a maior igualdade social, desenvolvimento sustentável.
A grande reflexão do professor Mansell é sobre quem deveria dotar os rumos desse tipo de inovação. Por que o accountability sobre essas decisões devem ser apenas das empresas e não da composição de visões de formuladores de políticas públicas, acadêmicos e cidadãos de forma geral? Esses são os atores que talvez, juntos, deveriam estar pensando de forma propositiva como se quer ou não usar inteligência artificial e quais deveriam ser os caminhos do seu desenvolvimento.
Por mais que isso afronte a noção neoliberal de livre mercado e assuste a turma de Chicago, talvez seja necessário em algum momento devolver o accountability para essa composição de a sociedade, poder público, empresas e entender como criar não só regulamentações, mas orientações prévias e proativas para o desenvolvimento tecnológico. E transformar isso em políticas públicas de forma adequada.
Um conceito muito interessante do professor Chantal Mouffe, em um artigo de 2013, é que precisamos fazer um “confronto agnóstico” dessa realidade, em que grupos e objetivos com valores opostos devem perceber que o debate sobre o futuro digital ocorre em um espaço contestado.
Afinal, como pontuou Raymond Williams, no longínquo ano de 1983 – e que encontra eco em Zygmunt Bauman em sua Maldade Líquida:
“Uma vez que as inevitabilidades são confrontadas, começamos a reunir nossos recursos para uma jornada de esperança”