Inteligência artificial, pós-humanismo e Educação: entre o simulacro e a assemblagem
Argumenta-se contra a personalização de agentes de inteligência artificial (IA) generativas baseadas em modelos de linguagem natural tais como ChatGPT e Bard. Propõe-se que projetar “humanidade” nesse tipo de artefato é uma forma de apego antropocêntrico improdutivo educacionalmente; sugere-se, como...
Gespeichert in:
Veröffentlicht in: | Dialogia (São Paulo) 2023-04 (44), p.e23906 |
---|---|
1. Verfasser: | |
Format: | Artikel |
Sprache: | eng |
Online-Zugang: | Volltext |
Tags: |
Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
|
Zusammenfassung: | Argumenta-se contra a personalização de agentes de inteligência artificial (IA) generativas baseadas em modelos de linguagem natural tais como ChatGPT e Bard. Propõe-se que projetar “humanidade” nesse tipo de artefato é uma forma de apego antropocêntrico improdutivo educacionalmente; sugere-se, como alternativa, o modelo da assemblagem cognitiva (novo inconsciente) de Katherine Hayles, no qual cognições técnicas (não-conscientes) produzem modos de atenção-reconhecimento que têm agencia moral e política, mas não se confundem com consciências humanas. Explica-se a projeção de uma teoria da mente no artefato a partir do arcabouço da pós-fenomomenlogia e adverte-se que nem demonizar a inteligência artificial, nem tratar esses simulacros como inteligências de facto, “empodera” o humano, mas apenas reencena versões progressivamente mais reducionistas do humano idealizado do humanismo. Urge que se utilieze de forma mais transparente as articulações entre consciência e modos não-humanos de atenção-reconhecimento para que tanto estudantes IAs não se tornem cada vez menos “inteligentes”. |
---|---|
ISSN: | 1677-1303 1983-9294 |
DOI: | 10.5585/44.2023.23906 |