IA, Escrita e Sociedade


O quarto encontro do curso foi marcado por um clima de encerramento, mas também de abertura para futuros desdobramentos. A sensação geral dos participantes foi de que, embora houvesse um fechamento formal, o debate estava apenas começando. As conversas aprofundaram os impactos da Inteligência Artificial (IA) sobre a escrita criativa, a pesquisa acadêmica, a cultura, a política e a filosofia, revelando tanto preocupações quanto possibilidades.


IA e o Processo Criativo

Um dos pontos centrais foi o relato de Ana, que compartilhou sua experiência ao utilizar a IA na produção de um ensaio sobre masculinidades. Ela percebeu que a máquina não elimina o trabalho humano; pelo contrário, o transforma. É preciso criar um método próprio, dominar o tema e assumir a curadoria do texto. A IA oferece sugestões, mas o autor deve dialogar, discordar e reelaborar constantemente. Esse movimento exige uma inteligência ativa e crítica por parte do humano.

Nesse processo, a formulação de perguntas aparece como habilidade-chave. Interagir bem com a IA depende menos da máquina e mais da capacidade humana de elaborar provocações inteligentes. Saber perguntar se torna uma arte, e dela dependem os melhores resultados.

Ao mesmo tempo, a curadoria garante que o texto final mantenha estilo e voz pessoal. É nesse ponto que aparece o “toque humano”: ainda que a IA contribua, cabe ao autor definir o tom, a coerência e a direção do texto. André destacou, ainda, que no campo da criação literária pode ser produtivo deixar espaço para o “caos controlado” e para o inesperado produzido pela máquina. Essa imprevisibilidade, que seria indesejável em áreas como a medicina ou o direito, pode ampliar as possibilidades da escrita e abrir caminhos criativos.


Dimensão Filosófica e Cultural

Do ponto de vista filosófico, o debate se voltou para a noção de cosmotécnica, apresentada por Yuk Hui. O autor defende que não existe uma tecnologia universal: toda técnica nasce de uma cosmologia, ou seja, de um modo de compreender e viver o mundo. Assim, pensar em tecnodiversidade significa imaginar IAs que expressem visões indígenas, artísticas ou mitológicas, e não apenas os valores e modelos ocidentais hoje dominantes.

Outro conceito central foi o da recursividade. Hui mostra que, na primeira cibernética de Norbert Wiener, o foco estava no feedback: um ciclo de regulação orientado à homeostase, como no caso do termostato ou do corpo humano. Já na segunda cibernética, com Heinz von Foerster, Humberto Maturana e Niklas Luhmann, a atenção desloca-se para a autorreferência e a auto-organização. Surge a noção de autopoiese, em que sistemas se produzem a si mesmos em relação com a contingência, isto é, com o imprevisível.

A diferença, portanto, é clara: enquanto o feedback em Wiener descreve um ciclo causal voltado para o equilíbrio, a recursividade em Hui se apresenta como um princípio mais amplo de autorreferência, que pode ser lógico, técnico ou até cosmológico. Isso significa que o feedback é apenas um caso particular da recursividade. Esse deslocamento abre espaço para pensar a criatividade, a contingência e novas formas de relação entre técnica e cosmologia.

Ainda nesse eixo cultural, discutiu-se a alienação contemporânea como a ignorância em relação ao funcionamento da tecnologia. A ética hacker foi apresentada como um contraponto: trata-se da capacidade de explorar e reapropriar-se dos sistemas, subvertendo-os em favor do bem comum. Aqui recupera-se a imagem do hacker como figura positiva, que revela e amplia o conhecimento sobre os sistemas técnicos.

Por fim, houve espaço para pensar as dimensões geopolíticas da IA. A atual disputa entre Estados Unidos e China, especialmente em torno de chips e semicondutores, foi comparada à corrida nuclear. A inteligência artificial não é apenas um tema de inovação tecnológica, mas também uma questão de poder global.


IA e a Academia

No campo acadêmico, a preocupação mais imediata gira em torno do plágio e da transparência. Muitos professores temem que os estudantes usem a IA de forma “oculta”, o que fragiliza os processos de avaliação. Mas a experiência compartilhada foi que proibir não resolve: o caminho mais produtivo é integrar o uso da IA e discutir abertamente suas implicações.

Essa discussão encontrou eco nas reflexões da colunista Megan McArdle (The Washington Post). Para ela, as universidades estão despreparadas para lidar com a transformação causada pela IA. O problema vai muito além do plágio: o que está em risco é o próprio valor do diploma como sinal de disciplina, inteligência e pertencimento social, como defende o economista Bryan Caplan. Se um estudante pode terceirizar leituras, redações e raciocínios para uma IA, o diploma deixa de comunicar essas qualidades. No limite, passa a ser apenas a prova de que alguém soube “trapacear” sem ser pego.

McArdle defende reformas urgentes na avaliação: provas presenciais, orais e atividades de participação em sala. Alguns exemplos já surgem: Mike Munger, professor da Duke University, integra a IA diretamente em suas propostas de trabalho. O uso não é fraude, mas parte do processo criativo. O aluno precisa demonstrar capacidade crítica, mostrando o que traz de próprio àquilo que a máquina produz.

O problema, entretanto, não é apenas individual. A governança lenta, a prioridade em contratar professores pelas publicações e não pelas habilidades pedagógicas, e a resistência cultural tornam difícil uma mudança estrutural. Hollis Robbins, pesquisadora em Humanidades, reforça que os docentes precisam responder a perguntas fundamentais: “O que sei que a IA não sabe?” e “Que valor específico trago à sala de aula?”. Quem não consegue responder está mal posicionado no novo cenário.

Esse mesmo debate foi ampliado pela comparação com o jornalismo, a partir do artigo de Rodrigo Tavares (Folha de S.Paulo). Ele apresenta quatro níveis de adoção da IA, desde a rejeição total até a supervisão mínima de conteúdos inteiros produzidos pela máquina. O jornalismo mostra que a IA não extingue profissões, mas redistribui tarefas, mudando competências e identidades profissionais.

  1. Nível 1 – Rejeição total à IA, por desconfiança, corporativismo ou defesa da “pureza” da profissão.
  2. Nível 2 – Uso limitado de ferramentas auxiliares (corretores, resumos automáticos, transcrição, tradução). É onde está a maioria dos jornalistas do mundo emergente e parte da Europa.
  3. Nível 3 – IA como parceira de criação: sugere títulos, gera rascunhos, encontra padrões em dados, cria imagens ou simula perguntas. Ex.: New York Times, El País, Reuters.
  4. Nível 4 – Jornalista apenas supervisiona: IA investiga, escreve, edita, ilustra e distribui. Já ocorre em conteúdos de baixa complexidade (clima, finanças, esportes). Ex.: Bloomberg, AP, EFE, ESPN. Em março de 2025, o italiano Il Foglio foi o primeiro jornal feito inteiramente por IA.

No ensino, também foi feita a tipologia: recusa, uso pontual, coescrita e delegação total. O grupo considerou que a coescrita é o caminho mais adequado: permite integrar a IA sem abrir mão da responsabilidade intelectual.


Práticas e Recomendações

O encontro também trouxe recomendações práticas. Foram apresentados modos avançados de interação com a IA, como Think e Investigate, que aumentam a transparência no raciocínio da máquina. Reforçou-se a necessidade de revisão crítica, já que a IA pode inventar informações. Inspirados por Ethan Mollick, pode ser útil tratar a IA como pessoa, e não apenas como ferramenta — o que facilita o diálogo, ainda que exija cautela contra antropomorfismos excessivos.

Houve também ênfase na importância de diversificar os arquivos e backups, usando nuvem, HDs externos e outros recursos para evitar perdas. A tradução foi destacada como uma das aplicações mais úteis da IA, especialmente em contextos acadêmicos.


Floridi e a Ética da Inteligência Artificial

O encerramento teórico ficou com as reflexões do filósofo Luciano Floridi. A partir de exemplos simples, como a pergunta “Qual é o nome da única filha da mãe da Laura?”, ele mostra que os modelos de linguagem podem falhar em tarefas lógicas elementares. Enquanto humanos entendem que a resposta é “Laura”, os sistemas mais antigos tratavam como consulta factual e erravam.

Floridi argumenta que esse exemplo revela a diferença entre inteligência operacional e agência moral. A IA pode processar padrões e fornecer respostas corretas por cálculo, mas isso não significa compreensão ou intenção. Confundir inteligência com agência é um risco: projetamos intencionalidade em sistemas que não têm responsabilidade moral. Em áreas críticas como medicina, direito ou educação, essa distinção é vital. Mesmo quando acerta, a IA continua operando apenas por cálculo.


Horizontes e Desafios

No horizonte, ficou a ideia de que a pior IA é sempre a atual, pois as próximas serão mais sofisticadas. Essa evolução constante exige preparo contínuo. Inspirados em Isaac Asimov, discutimos que o verdadeiro desafio está na formulação de perguntas. Em contos como Jokester, Asimov já apontava que a ciência só avança quando novas perguntas significativas são feitas — e que, paradoxalmente, essas perguntas podem parecer ridículas no início.

No começo da história de Multivac, tinha ficado evidente que o nó górdio estava na formulação das perguntas. Multivac poderia resolver todos os problemas da humanidade, todos os problemas, desde que… desde que lhe fossem feitas perguntas significativas. Mas à medida que conhecimento se acumulava numa proporção cada vez mais rápida, tornou-se cada vez mais difícil identificar essas perguntas. (…) A ciência desenvolveu-se a um ponto em que as únicas perguntas consideradas significativas são exatamente as ridículas. As perguntas sensatas já foram feitas e respondidas há muito tempo. 
Isaac Asimov – “Jokester” (1956) 
https://conversandocombotoes.wordpress.com/sobre/

Também se destacou a percepção das gerações mais jovens, que muitas vezes sentem que a IA “tira a graça” da criação ou ameaça empregos futuros, gerando insegurança. O encontro se encerrou com relatos pessoais de aprendizado: participantes que usaram IA para escrever artigos ou poemas, e o desejo coletivo de continuidade.


Síntese Final

Em síntese, o quarto encontro consolidou a percepção da IA como força transformadora e ambígua. Ela amplia possibilidades criativas, mas também desafia a academia, o jornalismo, a política e a ética. O grupo reconheceu que o verdadeiro desafio não está em simplesmente usar ou proibir, mas em aprender a perguntar, revisar, contextualizar e criar em diálogo com a tecnologia, mantendo a diversidade cultural e a responsabilidade ética como guias fundamentais.


Deixe um comentário