首页| 论坛| 搜索| 消息
主题:人与AI的“战争”
爱我中华发表于 2026-01-14 10:26
选择主动砍向谁,而基于平台训练数据、算法逻辑和权重打造的AI却可以主动砍向每个人的名誉权,这是出厂时就存在的‘错误’。”他认为,平台对这一问题采取了放任的态度,应当为AI承担侵权责任。新京报记者从多方获悉,截至发稿,该案尚未宣判。2026年1月初,发现AI搜索生成针对他的“组织卖淫罪”错误信息后,冀承祥向百度发送邮件说明相关情况,并希望得到处理反馈。受访者供图对于长期从事搜索引擎AI开发业务的微软资深工程师王斌(化名)而言,平台的技术设计、配套措施和监管审核跟不上,这场人与机器的“战争”并不难理解。从技术层面来看,此类案件中AI的“攻击”现象属于“低级错误”:网页内容语缺乏深度语义分析,无法区分不同个体身份,又缺乏了多轮语义校验审核和把关机制。王斌表示:“技术层面完全可以实现‘风险信息分级验证’,目前国际上也已经有平台落地相关机制。”但是,百度的AI产品服务或许过于粗糙,这很大概率取决于平台的取舍平衡:“背后可能是节省预算、减轻服务器负载的商业考量,更精细的多轮校验流程意味着更高的算力和成本投入。”百度和其他平台是否可以实现风险信息分级验证,新京报记者联系包括百度在内多家接入AI功能的平台方人员,截至发稿,未获有效回复。黄贵耕也试过在其他搜索引擎上输入“黄贵耕律师”等关键词进行搜索,他发现,大部分平台的AI功能并不会将其姓名身份关联负面虚假信息,甚至会主动标注“被处罚的黄姓匿名人士不是黄贵耕律师”。他认为,AI的形象是“恶”是“善”,仍然由其背后的平台控制。多位受访者指出,被AI“伤害”后,他们先是愤怒,之后便寻找反馈、申诉途径:“找了半天反馈入口,甚至找上了平台客服,即使多次投诉,也还得等待好多天,内容才可能被下架。”2026年1月初,发现AI搜索生成针对他的“组织卖淫罪”错误信息后,冀承祥向百度发送邮件说明相关情况,百度随后向其致电核实情况,并将这一问题解释为“AI抓取有误,后续将加强对生成结果的监管”。但截止发稿,冀承祥发现,关于他的错误信息仍未得到完全更正或删除。一位受访者提供的截图显示,她2025年9月反馈的错误信息内容,也至今未得到处理反馈。新京报记者以用户名义咨询一名负责百度搜索AI业务线的工作人员,对方表示,自2025年年初推出AI搜索功能,他们便收到一定数量的用户反馈,其中不乏负面、投诉内容:“确实有人指出AI生成了错误的内容,也有不当关联信息的情况。”但针对这一问题,对方并未给出“用户可以进行投诉反馈”外的解决方案。应当“谅解”AI犯错吗?对于传统的网络服务场景,发现被侵权后,用户向平台提供举证材料,平台核实后予以删除。这类“通知-删除”模式是常规解决方案。但是,在此前办理过涉AI侵权类案件的北京互联网法院法官刘承祖看来,相较于传统的网络服务提供者,人工智能服务提供者在技术特征、数据内容处理和内容展示等方面存在显著差异,这使得“通知-删除”规则能否直接类推适用于人工智能服务提供者的侵权行为成为实践中争议的焦点。“人工智能生成内容究竟属于什么?是单纯呈现平台上已有的公开信息,还是属于平台创作的作品?换言之,AI在其中究竟只是扮演了被动的信息展示者角色,还是已然成为相对主动的信息生成整合者,其技术是中立的还是有偏向的?平台应当承担多少注意义务?‘通知-删除’规则、技术中立原则是否适用?这都需要根据AI算法模型背后的训练数据、应用逻辑综合判断,我们也无法下一个普适性的结论,需要结合个案的技术细节、侵权场景等综合分析认定。”他表示,在人工智能生成物引发的人格权侵权纠纷案件中,司法实践正面临“法律适配”与“规则探索”的双重挑战:一方面,现有法律框架难以完全适配AI技术的快速迭代,法律法规层面仍存在一定的模糊地带。另一方面,在现有法律框架下,针对“AI侵权”案件可供参考的裁判案例数量并不多,在司法实践中仍需不断探索完善人工智能服务提供者的权责边界。对于这场人与机器的“战争”,究竟站在哪方,各方的考量并不相同。“为保护技术创新,社会需要给予AI试错的空间,一定程度上容忍此类情况的发生。”一位长期研究知识产权领域的高校法学教授认为,他理解被侵权用户的处境,但在当前场景下,当公民人格权与企业技术创新产生冲突,且平台过错不明显时,应当适当倾斜于技术创新者:“这是对大模型创新的保护与激励。”“整个互联网时代,日本和欧洲因过严的监管和过高的要求,阻碍了全球性的创新型互联网公司的成长,而中国和美国(这类公司)则不断涌现、蓬勃生长。”他进一步解释。“法律与司法在鼓励技术发展与保护个人权利间寻求平衡点,不应简单要求公众‘容忍错误’。”长期研究数据法治领域的华东政法大学刑事法学院副教授、上海市数字化转型与数字法治建设研究创新团队研究员房慧颖给出了不同的立场。她认为,当技术应用对公民名誉权等法益造成现实且严重的损害时,法律必须提供有效救济。她告诉新京报记者,“通知-删除”这一后端补救机制难以全面规制平台的行为,“应当升级平台治理规则,履行保证人的义务,而非放任错误内容或有害内容生成。”平台向公众提供此类服务,理应承担更严格的研发注意义务。她提出,“分级管理”或许是破解这一两难困境的关键。“平台应当构建精细化的治理体系:对于普通类别信息,例如生活资讯、娱乐消息,可以适当简化审核流程。但涉及‘违法’‘犯罪’等可能严重影响公民声誉的敏感信息时,必须使用权威数据库,或要求多重交叉信源验证,确保信息准确。”这一方案也得到了资深AI工程师王斌的认可。他强调,头部AI企业作为行业标杆,理应承担起风险信息多重验证的主体责任,这既是合规要求,也是行业可持续发展的基础。“随着技术迭代,公众对AI检索精度和可靠性的期待只会越来越高。”刘承祖认为,随着技术不断发展,AI检索的精度和可靠性也会逐步提高,他希望能通过典型案例的裁判指引,推动人工智能技术服务提供者加强技术应用的风险防控,优化平台算法设计,推动人工智能技术在合法合规的轨道上健康发展。人与机器的“战争”仍在继续,两起诉讼的当事人均选择不“谅解”。黄贵耕表示,除了要一个道歉,他还希望借此为人类“讨个公道”:人在机器、大公司面前是弱势,凭什么要我“谅解”你?新京报记者 胡倩 实习生 申钰棋编辑 胡杰 校对 赵琳
上一页  (2/2)
回帖(0):

全部回帖(0)»
最新回帖
收藏本帖
发新帖