CARRINHO

Seu carrinho está vazio

Total R$ 0,00

 

Na viagem que fizemos para o Uruguai e a Argentina, pudemos conhecer algumas atividades que tinham, como uma das etapas, a produção de prompts para fins diversos, usando mecanismos de chat com IA. A maioria das propostas de prompt literacy - ou letramento em prompts - que circula hoje em materiais de formação docente, parte de uma premissa: aprenda a escrever bem, e a IA vai obedecer ao usuário. Essa abordagem é problemática por pelo menos três razões:

A primeira está relacionada com o que pode ser chamado de caixa-preta algorítmica: o usuário nunca tem acesso ao que de fato determina a resposta. Temperatura, RLHF (Aprendizado por Reforço com Feedback Humano), dados de treinamento, filtros de conteúdo, versões do modelo, etc. funcionam de maneira não transparente. O que parece controle é, na prática, negociação com um sistema cujas regras internas são inacessíveis. Ensinar prompt como técnica sem ensinar opacidade é ensinar uma ilusão de legibilidade.

A segunda se relaciona com as decisões fora do alcance do usuário. As empresas que controlam os recursos alteram políticas de uso, capacidades, acessos e preços de forma unilateral e assimétrica. O que funciona hoje pode ser bloqueado amanhã por mudança de termos de serviço, por pressão regulatória ou por decisão de negócio. O controle do usuário é sempre contingente e revogável, o que remete diretamente ao conceito de soberania tecnológica como questão coletiva e não individual.

A terceira razão está relacionada com a mudança constante dos LLMs (Modelos de Linguagem em Grande Escala). Eles mudam de comportamento entre versões, às vezes de forma não documentada. O chamado model drift já foi documentado: o mesmo prompt produz respostas diferentes em GPT-4 de março e de junho, por exemplo. Ensinar prompts como habilidade estável é ensinar algo que se torna obsoleto por design, o que também favorece a dependência de atualização contínua, outro mecanismo de captura.

Para interagir com a IA visando à construção de autonomia na relação com tais interfaces, as atividades educacionais precisam considerar o que, de fato, está sendo ensinado quando se ensina a escrever prompts. Se o objeto de ensino for deslocado do ‘como obter resultados’ para o ‘como esses sistemas constroem sentido’ (ou fingem construir), o prompt se torna um objeto epistêmico interessante, não uma técnica, mas um dispositivo de observação.

Nesse sentido, a partir da observação de diferentes atividades nas escolas visitadas, pensamos que a didática da educação digital é um elemento importante a ser continuamente investigado, para além das didáticas específicas das diferentes áreas do conhecimento. A didática se refere ao modo como cada campo organiza princípios, métodos, linguagens e formas de mediação visando ao ensino e à aprendizagem, considerando tanto a natureza epistemológica desses conhecimentos quanto os processos cognitivos e culturais envolvidos na aprendizagem. Não se trata apenas de como ensinar, mas de como determinados conteúdos ganham forma pedagógica: o que se seleciona, como se organiza a sequência, que tipos de atividade fazem sentido e quais práticas favorecem a construção de significado em cada área.

Nesse sentido, pensar na didática da educação digital implica ir além do ensino instrumental de tecnologias e considerar as especificidades desse campo: sua natureza híbrida, mutável e sociotécnica; a centralidade de dados, algoritmos e plataformas; e os impactos éticos, políticos e culturais envolvidos. Uma didática da educação digital, portanto, precisa articular competências técnicas com pensamento crítico, agência e participação, reconhecendo os estudantes não apenas como usuários, mas como sujeitos capazes de compreender, questionar e intervir nos ecossistemas digitais em que estão imersos.

O que seria então importante considerar quando se ensina a escrever prompts?

1- O conceito de opacidade é condição estrutural, não um bug; é uma característica deliberada do modelo de negócio das IAs. Isso implica ensinar que a ausência de transparência não é acidental, mas sim a regra das plataformas.

2 - As respostas bajuladoras da IA (aquelas que validam o usuário independentemente da qualidade do que foi produzido) interferem na comunicação entre usuário e sistema. A sensação de humanização criada nesse tipo de resposta requer leitura crítica e posicionamento que precisam ser ensinados.

3 - Quando um prompt ‘dá certo’ não significa necessariamente que o estudante entendeu por que ele funcionou. Essa distinção nos ajuda a separar competência técnica de letramento crítico. Sem ela, o ensino de prompts reproduz o mesmo problema que o ensino de algoritmos sem estruturas de dados: o estudante aprende a usar, mas não necessariamente a questionar.

4 - Na interação com recursos da IA, há enviesamentos, limites e silêncios que nenhum prompt resolve. Isso porque essas características estão nos dados de treinamento, nos filtros de RLHF, nas escolhas editoriais das empresas. Nomear isso explicitamente é essencial. Uma das práticas propostas nas atividades acompanhadas na viagem foi a de encurralar ou cercar a IA, com o objetivo de compreensão do que está visível ou invisível.

5 - Para estudantes brasileiros especificamente: os modelos foram majoritariamente treinados em inglês e em perspectivas do Norte Global. Escrever prompts em português não resolve essa assimetria, ela precisa ficar explícita. É preciso criar condições para reduzir essa desigualdade e promover agência.

6 - O letramento de prompts individualiza um problema que é estrutural. Se ensinado apenas como habilidade pessoal, reforça a lógica da responsabilização do usuário. O ensino precisa articular: o que eu posso fazer individualmente e o que só pode ser respondido coletivamente (regulação, soberania de dados, modelos abertos, etc.).

No lugar de "escrever prompts", o objeto de ensino poderia ser formulado como "interagir criticamente com sistemas opacos de linguagem", o que inclui escrever prompts, mas também interpretar respostas, identificar ausências, questionar fontes de enviesamento e reconhecer os limites estruturais do controle individual. Isso se articula com letramento midiático, pensamento computacional crítico e educação para a cidadania digital de forma muito mais coerente do que uma abordagem técnica. A ilusão de controle, no fundo, é uma ilusão de agência individual num sistema desenhado para o engajamento com a finalidade de consumo.

A didática da educação digital precisa ser tratada como um campo de investigação permanente, e não como um conjunto de boas práticas a ser replicado. Cada escolha pedagógica envolvendo IA levanta perguntas que não têm resposta pronta: O que estou de fato ensinando quando peço que meus estudantes interajam com esse sistema? O que eles estão aprendendo sobre como o conhecimento é produzido, filtrado e distribuído? Que tipo de agência estou ajudando a construir? Essas perguntas não têm resposta fora da prática, mas podem ser respondidas no movimento contínuo de ensinar, investigar, observar, analisar e recomeçar.