生成式人工智能虚假有害信息规制的挑战与应对——以ChatGPT的应用为引
以ChatGPT为代表的生成式人工智能引发的虚假有害信息风险极为复杂,涵盖“积极生成型”“消极生成型”和“人为操纵型”等多种情形。依靠其独特复杂的内外部因素,生成式人工智能打破了学术界与实务界迄今关于搜索引擎算法“不能、不想、不愿”生成虚假有害信息的所有立场分歧与理论认知,更是在法律定位、归责认定上对现行网络虚假有害信息相关法律规制发起了挑战。有鉴于生成式人工智能的类通用属性,对其规范应当超出一般算法的规制框架,以人工智能基础性立法为基底建构特定的算法诽谤规制路径。一要坚持层级治理的规制逻辑,建立多元主体协同共管机制、设立涵盖多责任主体的内容监管机制、创建具有高拓展性的风险监测机制;二要在“刺...
Gespeichert in:
Veröffentlicht in: | 比较法研究 2023-09 (5), p.34-54 |
---|---|
1. Verfasser: | |
Format: | Artikel |
Sprache: | chi |
Online-Zugang: | Volltext |
Tags: |
Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
|
Zusammenfassung: | 以ChatGPT为代表的生成式人工智能引发的虚假有害信息风险极为复杂,涵盖“积极生成型”“消极生成型”和“人为操纵型”等多种情形。依靠其独特复杂的内外部因素,生成式人工智能打破了学术界与实务界迄今关于搜索引擎算法“不能、不想、不愿”生成虚假有害信息的所有立场分歧与理论认知,更是在法律定位、归责认定上对现行网络虚假有害信息相关法律规制发起了挑战。有鉴于生成式人工智能的类通用属性,对其规范应当超出一般算法的规制框架,以人工智能基础性立法为基底建构特定的算法诽谤规制路径。一要坚持层级治理的规制逻辑,建立多元主体协同共管机制、设立涵盖多责任主体的内容监管机制、创建具有高拓展性的风险监测机制;二要在“刺破人工智能面纱”原则的基础上,探索生成式人工智能为责任主体的新型诽谤救济规则,包括探寻以“AI价值链”为导向的归责方法,以及适用于过渡期的暂代型诽谤救济模式。 |
---|---|
ISSN: | 1004-8561 |