生成式人工智能虚假有害信息规制的挑战与应对——以ChatGPT的应用为引

以ChatGPT为代表的生成式人工智能引发的虚假有害信息风险极为复杂,涵盖“积极生成型”“消极生成型”和“人为操纵型”等多种情形。依靠其独特复杂的内外部因素,生成式人工智能打破了学术界与实务界迄今关于搜索引擎算法“不能、不想、不愿”生成虚假有害信息的所有立场分歧与理论认知,更是在法律定位、归责认定上对现行网络虚假有害信息相关法律规制发起了挑战。有鉴于生成式人工智能的类通用属性,对其规范应当超出一般算法的规制框架,以人工智能基础性立法为基底建构特定的算法诽谤规制路径。一要坚持层级治理的规制逻辑,建立多元主体协同共管机制、设立涵盖多责任主体的内容监管机制、创建具有高拓展性的风险监测机制;二要在“刺...

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
Veröffentlicht in:比较法研究 2023-09 (5), p.34-54
1. Verfasser: 朱嘉珺
Format: Artikel
Sprache:chi
Online-Zugang:Volltext
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
Beschreibung
Zusammenfassung:以ChatGPT为代表的生成式人工智能引发的虚假有害信息风险极为复杂,涵盖“积极生成型”“消极生成型”和“人为操纵型”等多种情形。依靠其独特复杂的内外部因素,生成式人工智能打破了学术界与实务界迄今关于搜索引擎算法“不能、不想、不愿”生成虚假有害信息的所有立场分歧与理论认知,更是在法律定位、归责认定上对现行网络虚假有害信息相关法律规制发起了挑战。有鉴于生成式人工智能的类通用属性,对其规范应当超出一般算法的规制框架,以人工智能基础性立法为基底建构特定的算法诽谤规制路径。一要坚持层级治理的规制逻辑,建立多元主体协同共管机制、设立涵盖多责任主体的内容监管机制、创建具有高拓展性的风险监测机制;二要在“刺破人工智能面纱”原则的基础上,探索生成式人工智能为责任主体的新型诽谤救济规则,包括探寻以“AI价值链”为导向的归责方法,以及适用于过渡期的暂代型诽谤救济模式。
ISSN:1004-8561