主题:美国律师提交的证据系人工智能伪造,法官震惊不已
信息来源:https://futurism.com/artificial-intelligence/judge-horrified-lawyers-submit-ai-evidence
2025年11月19日,加利福尼亚州的一起案件揭示了人工智能技术在法律领域使用的不当时机。原告律师错误地提交了一段明显是由人工智能生成的深度伪造视频作为证人证词,最终导致其诉讼请求被驳回。这一事件不仅震惊了法官,也引发了对人工智能在法庭证据中使用的更广泛讨论。
在“门多内斯诉库什曼·韦克菲尔德公司”案中,原告方提交的视频存在明显的瑕疵。视频中的证人面部模糊,表情僵硬,仅在偶尔的眨眼间显示出微弱的生命迹象,而其嘴唇微微张开,却缺乏任何自然的情感表达。更离谱的是,视频还存在突兀的剪辑,使得证人的动作看起来像是循环播放的机器人。这段视频的人工生成特征一目了然,法庭的技术和法律专家极易识破。
法官的反应与法律界的担忧
案件的审理法官维多利亚·科拉科夫斯基对此现象表示出强烈的不满。在9月的初审中,她以视频证人证词“显然是伪造”的理由驳回了此案。当原告方试图通过复议请求恢复案件时,科拉科夫斯基再次拒绝了其请求。她指出,人工智能生成的证据对于法律体系的威胁是显而易见的,这种现象在法律界尚属于前所未有的挑战。
科拉科夫斯基对新一代视频生成工具的出现表示了警惕。以OpenAI的Sora 2为例,该工具可以轻松生成深度伪造的视频内容,任何具备基本技术能力的人都能制造出逼真的伪造证据。因此,法官和法律工作者们面临着前所未有的挑战,他们需要快速适应技术带来的变革。
法律界对未来的不同看法
插图:Tag Hartman-Simkins / 未来主义。来源:Getty Images
面对深度伪造视频可能带来的司法危机,法律界的专家们意见不一。一些观点倾向于预防性的姿态,主张通过加强法律规章来应对这种新兴技术的挑战。比如,建议建立指导方针,以更严格的标准审查和核实所提交的证据,或者将识别伪造证据的责任转移给法官,而不是陪审团。
与此相对的是另一种观点,认为不应过于紧张,应该让法官们在实际审判中观察到人工智能伪造证据的可能性和影响。这一观点在政策层面正在逐渐占据上风,例如,美国司法会议证据规则咨询委员会日前驳回了更新相关证据指南的提案,认为现有的真实性标准已经足够应对人工智能的运用。
针对深度伪造视频的法律问题,现有的法律框架似乎显得力不从心。加州圣克拉拉县高等法院法官埃里卡·尤指出,人工智能生成的伪造或篡改证据频率可能远高于公众意识到的程度。这一警告突显了法律制度对新技术适应能力不足的深层次问题。
未来的应对策略
从长远来看,法律界必须重新审视和适应人工智能技术对法庭的影响。这包括对法官和律师进行必要的培训,使他们能够识别和评估人工智能生成的证据。同时,对公众教育也是不可忽视的一环,提升人们对深度伪造技术的认知,帮助他们在判断视频证据时保持警觉。
在不断变化的技术环境中,法律界需保持敏感性和适应性,确保法律体系能够有效应对新兴挑战。尽管人工智能技术提供了前所未有的便利,但其应用必须在法律和伦理框架内进行监管,以维护司法公正和有效性。
综上所述,门多内斯诉库什曼·韦克菲尔德公司的案件仅是一个开始,未来随着技术进步,如何应对人工智能生成的证据将是每一个法律工作者必须面对的挑战。法律界必须主动探索新法规的制定,确保在支持技术创新的同时,保护司法的公平与正义。
回帖(0):全部回帖(0)»