随着人工智能的不断应用,我们有理由相信,围绕人工智能的诉讼将会越来越普遍。我们正处于这样一个时代的黎明:基于某种形式的人工智能生成结果的案件将为可诉讼的诉因提供基础。此外,还有一群如饥似渴的集体诉讼律师,希望抓住下一个有利可图的大诉讼领域。无论如何,现在是时候考虑人工智能使用可能带来的法律漏洞了,尤其是在 UCaaS 和 CCaaS 领域,以便部署这些工具的实体能够保持警惕。
作者:Martha Buyer原文:https://www.nojitter.com/privacy-compliance/dawn-ai-litigation-what-ccaas-and-ucaas-implementors-need-know
第一个值得关注的领域是这些技术如何有可能危及个人隐私权。一家如今备受诟病的公司的广告曾经有一句标语:“如果数据不公开,就不会被盗用。”我还要补充一点,如果数据不公开,也不会被滥用。事实上,我们中的许多人都过于随意地以方便的名义分享个人信息。我们知道这些信息是“公开的”。无论是否提供提示警告我们,支持此类互动的产品和技术将捕获和使用我们的个人数据(作为呼叫者、聊天机器人用户或发短信者),我们都不太可能确切知道谁拥有我们的数据以及他们打算用这些数据做什么。
COMMfusion 总裁兼首席分析师、BCStrategies 联合创始人 Blair Pleasant 表示:“我们知道一些 CCaaS 供应商会使用客户通话内容来训练他们的 AI,这并不是什么行业秘密。但是,最终客户是否知道他们的对话会被用来训练 CCaaS 供应商的模型?客户可能已经同意了他们正在互动的公司,但没有同意拦截他们通话的 CCaaS 平台。这是一个非常模糊的领域。”
许多在 CCaaS 和 UCaaS 领域吹嘘其 AI 产品的大公司都被起诉了。接下来肯定会有更多诉讼。当有诉讼理由时,原告的策略几乎总是“起诉所有人,看看谁能坚持下去”。考虑到这一点,接下来将重点介绍最近提起的一个案件。我已经审查了初步诉状,虽然提出的论点有些独特(在四个诉讼理由中,两个似乎有效,而其余两个,在我看来和根据我所知道的情况,有点牵强),但这个案例比其他案例更胜一筹,因为它说明了我认为最大的问题——隐私。该案尚未解决,也未确定其结果,但初步诉状中提出的事实既有趣又具有说明性。
这起集体诉讼案(这是一起集体诉讼案本身就说明了问题)是 Crowder v. Pre-Paid Legal Services, Inc., d/b/a LegalShield and Talkdesk, Inc.,提起于 2024 年 8 月 22 日。我将只关注涉及 Talkdesk 的部分。根据诉状,LegalShield 使用 “Talkdesk 的产品来管理其客户服务电子邮件、聊天机器人、电话和短信”,而从 LegalShield 的客户/顾客的角度来看,打电话给 LegalShield 的人根本无法知道 LegalShield 的客户互动供应商 Talkdesk 不仅在监听通话,而且还在录音,并将这些录音用于自己的目的。这个过程提出了神圣的律师-当事人特权方面的问题(这是非常重要的)。然而,让我们把注意力集中在通信平台和人工智能的问题上:客户完全有权认为他们的数据是保密的,但他们得知他们的数据现在在第三方(Talkdesk)手中,根据法庭文件,第三方可以使用,而且已经使用——这些数据用于自己的目的。他们既未被告知,也未同意这样做。
原告提出的最有说服力的论点是,她认为她与 LegalShield 分享的信息始终是保密的,而由于 LegalShield 与 Talkdesk 分享了她的信息,她的隐私显然在未经她同意的情况下受到了侵犯。
虽然这个论点似乎很有道理,但事情从来都不像看上去那么简单。首先,美国没有人拥有全面的隐私保护;现有的隐私保护都是为特定目的而制定和采用的。HIPAA 保护医疗保健信息,其他联邦法规也提供各自的隐私法规,但与欧盟不同,美国没有国家隐私法或标准。此外,还有州隐私法——最著名、可能也是最严格的是加利福尼亚州。虽然其他州可能有类似的规则和法规,但许多州没有包罗万象的隐私法规,从而造成了隐私执法要求的荒芜。
其次,欧盟有意在起草和颁布有关人工智能使用的可执行立法方面发挥领导作用。与之前的 GDPR 一样,这两部欧盟立法的义务/要求远远超出了其物理边界,既涵盖可能在国外的欧盟公民,也涵盖隐私侵犯发生时在欧盟境内的非欧盟公民。
随着最终用户继续在其运营中部署基于人工智能的工具(无论是面向内部还是外部),他们的技术和法律人员应该敏锐地意识到提供给人工智能流程的数据不仅会被使用,还会被存储和共享。客户还需要有机会了解正在共享的信息的安全性:谁拥有这些信息,那些参与者用这些信息做什么,以及这些信息到底有多安全。