新闻资讯
别把AI当律师:聊天记录可能成法庭证据
寻求建议,多名美国律师正提醒客户,在涉及法律责任甚至人身自由的问题上,不要将聊天机器人当作可以保密的对象。的对话记录,不能以保密为由拒绝披露。等工具的交流,可能在刑事或民事案件中被调取。对话进入法庭的风险。份案件材料,其律师主张这些内容应受保护,但检方认为相关对话不属于律师参与范围,因此可被调取。
你正于跟AI聊天框当中输入案情的详情细致之处,你兴许会觉着这仅仅属于私下的探讨言说,不会有任何人清楚究竟是怎么回事,然而美国法院最新出台定下的裁决告知给你,你与AI之间的对话记录内容,检方具备着直接去调取的权力,这可不是故意耸嚷些吓人的话,而是已然真实发生过的案件情况。
法官裁定AI对话不是秘密
2026年4月15日,美国纽约联邦有一位名为拉科夫的法官做了一项关键裁决,在某起证券欺诈案件里,被告布拉德利·赫普纳利用AI弄出了31份案件材料,针对这事这位被告的律师声称这些对话应当受到保密特权保护,然而法官觉得,AI用户同AI之间并不存在律师与客户的关系,所以赫普纳得要向检方呈上这些对话记录。
这个裁决,直接将很多人对于AI对话保密性的幻想给打破了。在此之前,有不少用户觉得,把问题输入到AI之中,就如同跟律师谈话那般安全。然而,法官明确地指出,在美国法律体系里,律师 - 客户保密特权仅仅适用于真正的律师,AI并不具备任何法律身份,而且更不能够提供保密承诺。
律师紧急警告客户管住嘴
纽约律所Kobre & Kim的律师亚历山德里亚·古铁雷斯·斯韦特所说,其称已向客户提倡对AI要保持高度的谨慎态度。这位律师的这般言论呈现出美国法律界的最新普遍认识:不应再将AI视为能够倾诉秘密者。多家律所借助客户通知以及公开建议,去提醒个人和企业设法降低AI对话进入法庭的风险。
纽约的律所Sher Tremonte,有这样一个情况,在客户协议里增添了一条,它有着明确的说明,那就是要是将律师意见输入到AI平台之中了,那么就有可能致使律师 - 客户特权失效。这所代表的意义是,原本处于法律保护之下的沟通内容来讲,因为经过了AI这么一个环节,反倒失去了保护伞。律师们存在着担心,好多客户可能正在无意中给自己制造法律风险。
两个法院两种相反判决
法律界针对AI问题的态度并非全然一致,就在拉科夫法官做出裁决的当日,密歇根州的另一位联邦法官给出了全然相反的判定,这位法官判定,一位自行打官司的当事人与AI间的对话能够被视作个人工作成果,所以不需要向法庭呈交,两个联邦法院于同一天给出了截然不同的判决。
这种司法方面存在的分歧显示出,美国的法律体系针对AI的定位尚处于正在形成的进程当中。不同的法官对于同一个问题持有不一样的理解,这致使用户以及律师都产生了困惑。一部分法官觉得AI对话应当受到保护,而另外一部分法官却觉得要完全公开。在这样一种不确定的环境之下,最为安全的做法便是假定AI对话随时都有可能被调取。
AI公司条款暴露真实风险
要是用户认真去阅读AI平台所给出的使用条款,便会发觉风险已然是写在那里面的了。OpenAI明确在条款里表明,于特定情形之下能够与第三方一同分享用户数据。Anthropic同样在条款里清晰指出,在特定状况时可以跟第三方共享用户数据。这些公司还提议用户,当涉及到法律问题之际要去咨询专业人士,而非依赖AI。这表明就连AI公司自身都并不觉得他们的产品适宜用来讨论法律案件。
大量用户压根儿都未曾阅读过这些使用条款,就径直于聊天框内键入敏感信息。他们并不晓得自身的对话有可能被用作模型训练,有可能在某一时刻被公司予以查看,甚而有可能在法律纠纷之际被提交至法庭。AI公司不会为用户保守秘密的,这属于商业产品的基本逻辑,并非法律漏洞。
律师给出三条实用建议
律师们针对面对的不确定法律环境,给出了具体且可操作的建议,首先是选择更封闭的系统,避免运用公开的AI聊天工具去讨论案情,一些企业级AI产品具备了数据隔离功能因而安全性更高,尽管成本也更高,其次即便必须使用AI也要在提示词里明确表明是在律师指导下开展相关研究。
第三条同样是最为关键的那种建议:除开你的律师除外,不要朝着任何所要面对的对象去透露案件的具体情状,哪怕对方是人工智能。这一条建议看起来好像是比较简单的,不过在实际去进行执行的过程当中有蛮多人是做不到的。一部分用户认为人工智能并非是实实在在的人,与之聊天不会造成什么后果。另外还有些人觉着仅仅只是去问一个小小的问题,不会出现什么大的状况。然而法律方面所存在的风险往往就是源于这些没有在意的细微之处。
两种场景风险程度不同
要加以区分的是,运用AI去整理公开的资料,跟运用AI去讨论个人的案情,那是全然不一样的,要是你仅仅是让AI协助你查找公开的法律条文,以及整理已然公开的判例信息,那么风险相对而言是比较低的,这些问题并不牵涉到个人隐私,并且也不涵盖案情细节,就算被公开了,也不会造成实质性的伤害,然而问题在于,用户常常难以分清边界究竟在哪里。
只要一旦你于提问当中增添了特定的时间,还有详细之地点,以及明确人物,再加上具体金额等案件相关细节,那么其性质即刻发生全然不同之状态。这些信息只要被进行调取的话,极有可能变成致使你处于不利境地的根据。美国证券欺诈案里面,被告赫普纳缘故是那般特别,才被予以要求去提交对话记录,确切因素仅仅在于他借助AI展开的提问涉及到了案件所包含的具体材料。边界刚好就在这个地方:你的提问越是具备具体性,相应面临的风险也就会越高。
于你眼中,平常之人运用AI工具之际,最为极易被忽略的法律风险是啥呢,欢迎于评论区域分享你之所见,且也别忘记点赞以及转发哟,以使更多之人知晓在跟AI聊天之前得要思虑稳妥。


