Sociedade tecno-digital e esfera pública (III)
Protocolo algorítmico e IA, um novo processo kafkiano?!
O leitor conhecerá, com certeza, a expressão processo kafkiano, inspirada no livro de Franz Kafka, O Processo, como exemplo eloquente do tema da não-humanidade, reportado, aqui, ao absurdo e à loucura de um labirinto burocrático, que se traduz, neste caso, por uma verdadeira distopia existencial com origem no campo jurídico-administrativo e judicial. Esta referência histórica de um livro publicado pela primeira vez em 1925 parece-me muito sugestiva em 2025 devido, precisamente, a um processo de associação entre o protocolo algorítmico e a inteligência artificial e que poderia ser definido desta forma: por um lado, o protocolo algorítmico e a IA, por via da velocidade de computação, permitem-nos aliviar e abreviar o processo burocrático que afeta muitos casos pendentes, por outro, o funcionamento das máquinas inteligentes, o seu automatismo e a sua autocorreção, os códigos de linguagem matemática e a programação algorítmica, estão na origem de uma verdadeira caixa negra que, ao suprimir muitos procedimentos da inteligência humana, nos pode colocar em sérias dificuldades, seguramente mais complexas e perigosas do que aquelas do processo kafkiano. Bastaria lembrar, mais uma vez, os casos de justiça, mas, também, os problemas dos subsistemas da saúde, educação, segurança e defesa, fiscalidade e administração e, mais geralmente, a grande área da gestão e administração do Big Data.
A sociedade tecno-digital confunde-se, cada vez mais, com a utilização dos processos de digitalização e automatização e, também, com a programação matemática e os procedimentos do protocolo algorítmico, a chamada sociedade algorítmica. De que trata, então, a governação algorítmica?
No plano infraestrutural, a sociedade algorítmica alimenta-se de um vasto ambiente informacional em que prevalece a inteligência de muitos dispositivos tecno-digitais e de onde são extraídos dados brutos e sinais infra pessoais que os procedimentos de cálculo e as correlações estatísticas do protocolo algorítmico vão refinando sob a forma de padrões e perfis de comportamento. Não interessa o contexto, a singularidade, a significação desses dados. Os indivíduos são agregados temporários de dados brutos, quantificáveis e sucessivamente reconfigurados, se quisermos, uma espécie de coisificação dos indivíduos, onde tudo fica indexado a um qualquer indicador padrão. O racional do Big Data é encontrar a norma-padrão e prevenir contra a incerteza e o desvio
da nossa imperfeita racionalidade orgânica onde também mora a nossa consciência emocional e a intersubjetividade. De certo modo, os algoritmos são uma espécie de irmãos mais velhos, os narradores autorizados da nossa existência. Esta é a sua verdade objetiva, totalmente colada ao real, produzida em tempo real e sucessivamente reconfigurada por uma massa imensa de dados permanentemente atualizados.
No plano analítico e comportamental, à medida que o nosso comportamento converge para o padrão supra individual e a correlação estatística se aproxima da causalidade racional, o sujeito desaparece e o algoritmo cumpre a sua tarefa. Não só desaparece o velho humanismo como o nosso passado bioquímico e tudo o que fazia a inteligência emocional do ser humano individual. Do mesmo modo, a velha ciência dos conceitos está em risco, pois dos algoritmos bioquímicos e orgânicos aos algoritmos eletrónicos e inorgânicos tudo cabe no universo do Big Data e do protocolo algorítmico. É como se os conceitos fizessem parte da velha cognição e revelassem uma margem de incerteza ou excesso de peso que já não se compadecem com o rigor metodológico da nova ciência cognitiva. A ciência dos dados e da inteligência artificial não tem excesso de peso, é um novo universo cognitivo que emerge.
No plano das relações de poder, a sociedade algorítmica é, aparentemente, uma nova forma de gerir a incerteza e a insegurança pública e política. Todavia, ela procede por inversão dos termos da equação, pois são os meios (o sistema técnico e tecnológico) que tomam conta dos fins e como a inovação política e social corre muito mais lentamente há o risco de ficar prisioneira da elevada toxicidade da sociedade algorítmica. Voltamos, de certa forma, a um modelo extrativista onde todos somos produtores e fornecedores de uma massa imensa de informação pessoal, muita dela subliminar, num ambiente informacional vertiginoso e hipnótico, que tem tanto de benignidade como de toxicidade. De resto, não são apenas os algoritmos a cumprir essa missão, pois nesta grande corrente pós-humanista do século XXI entram também os gadgets, as próteses, os órgãos biónicos, os sensores biométricos e os chips nanotecnológicos do homem aumentado e transumano. Além disso, esta hibridação pós-humanista abre o caminho para o grande debate dos limites entre inteligência-consciência: os algoritmos são apenas inteligentes ou, também, deep learning conscientes, em segundo lugar, este deep learning do sistema algorítmico transporta-nos para um universo transumanista e uma nova variedade de espécie humana?
Aqui chegados, um século depois da publicação de O Processo, de Franz Kafka, tudo está em aberto e tudo pode acontecer, o melhor e o pior. No geral, os algoritmos
tanto podem ser uma guarda pretoriana de um candidato a ditador, como a guarda avançada de um capitalismo global e predador de grandes corporações tecnológicas multinacionais como, ainda, uma rede distribuída de proximidade ao serviço de uma sociedade mais igual e democrática. Ao poder ser tudo isto, a sociedade algorítmica, apoiada pela IA, revela aquilo que nós já sabíamos, isto é, a sua funcionalidade instrumental ao serviço de poderes e homens sem humanidade que, geralmente, desprezam os limites da política e as responsabilidades públicas que lhe são inerentes. De onde se retira que, um século depois, a questão é muito mais grave e séria do que um absurdo processo burocrático de origem jurídico-administrativa e judicial.
Estamos em 2025. No plano de uma ética prática, talvez mais útil nesta altura, as questões mais pertinentes parecem ser as seguintes:
- Na sociedade tecno-digital, como impedir que os erros e a estupidez artificiais originem acontecimentos fortuitos e danos colaterais graves?
- Na sociedade tecno-digital, como impedir que a governação algorítmica e a administração do Big Data provoquem mais discriminação, enviesamento e exclusão sociais, uma verdadeira guerra civil das inteligências?
- Na sociedade tecno-digital, como repartir, com justiça e equidade, o valor criado pela IA em termos de riqueza, rendimento e emprego?
- Na sociedade tecno-digital, como impedir que algumas formas de IA se convertam em cúmplices do cibercrime e da insegurança de indivíduos, povos e nações?
- Na sociedade tecno-digital, e porque a IA precisa de enquadramento jurídico-institucional, qual é o investimento ético-político que a sociedade está disposta a fazer em matéria de responsabilidade de órgãos arbitrais, instâncias regulatórias e judiciais?
- Na sociedade tecno-digital, como evitar que o espaço público seja tomado pelo medo, a violência e a desesperança e ceda o seu desejo de futuro ao capitalismo de vigilância?
Num plano mais pessoal e profissional, as relações entre inteligência humana e inteligência artificial que mais nos aproximam de um eventual processo kafkiano são as seguintes: corremos o risco de uma perda gradual da nossa autonomia cognitiva (menos atenção, memória e raciocínio lógico), a delegação de certas tarefas na IA e nos assistentes inteligentes reduz o nosso pensamento crítico, a automatização não nos deixa ver claro alguns vieses cognitivos o que nos induz a cometer erros recorrentes, corremos o risco de trabalhar ainda mais estimulados pela eficiência e eficácia da IA, por fim, e no final do dia, não sabemos o que fazer com a nossa liberdade e livre-arbítrio.
Nota Final
A inteligência, tal como a entendemos, é, essencialmente, o fruto do cruzamento de uma base biológica com um complexo simbólico e cultural impossível de ser reproduzido artificialmente. O mito da inteligência das máquinas é, apenas, a sua capacidade para simular a inteligência humana, pois a autonomia técnica e lógica não se confunde com a inteligência racional e emocional dos humanos. Somos nós que inventamos o código e é dentro de um determinado código de linguagem que as máquinas e a inteligência artificial trabalham. Podem aperfeiçoar mecanismos de aprendizagem e categorizar a informação, mas não alteram o código com que trabalham. O mesmo se diga em relação ao Big Data. É certo, faz-se antecipação com base numa correlação que assenta sobre um axioma de regularidade, mas o futuro muito raramente respeita as previsões e o progresso é frequentemente convulsivo e pouco atreito a determinismos.
A transformação tecno-digital, se for muito disruptiva e assimétrica pode sempre gerar uma gigantesca distopia existencial e o processo kafkiano pode irromper a qualquer momento. É o programador que vicia a programação, a máquina que aprende, mas não apreende, é a diluição e dissolução de responsabilidades, é a debilitação dos processos de escrutínio e da auditoria, é a liquidez dos direitos autorais e propriedade intelectual, é o debate etéreo sobre a ética dos limites da IA.
Sim, cem anos depois, o tema da não-humanidade está bem presente, pois nada nos garante que, amanhã, as instituições digitalizadas e artificializadas, troquem, mais uma vez, a prestação democrática de um serviço público de qualidade, por uma servidão e submissão pura e dura aos processos tecno-burocráticos de um regime plutocrático e autoritário. O absurdo distópico e o mal-estar existencial são, neste caso, muito mais graves do que um processo kafkiano. Não temos alternativa. Teremos de ir para o campo de batalha e recriar a teoria do agir comunicacional no espaço público em nome da estranha ordem das coisas (Damásio, 2017), pois a nossa vantagem continua a ser essa interação favorável e desfavorável de sentimento e de razão que levou os seres humanos a criar a cultura e a arte, os sistemas morais e a justiça, a ciência e a tecnologia, a economia política e a governação.

