AI共享屏幕下隐私保护与数据安全的思考

王磊 北京理工大学智能科技法律研究中心研究员
2025-08-21 15:53:38
来源: 时代在线

一、AI共享屏幕引发隐私担忧

近年来,人工智能助手功能持续进化更新,从语音识别、自然语言交互扩展至更复杂的感知能力。其中,屏幕共享类功能因具备直观、即时、高效的优势,被广泛应用于协同办公、远程指导与场景反馈等使用场景。尤其是在教育、医疗、客服等高信息密度的应用领域中,AI屏幕共享的实用性尤为突出。

目前已有人工智能产品在其视频通话中引入屏幕共享与智能观察功能,不仅能实时识别用户所处环境,还可实时提供语义反馈与建议。例如,用户可以通过屏幕共享让人工智能助手帮助查找物品、识别文档内容、远程指导操作,甚至分析实时场景中的信息。与视频会议等屏幕共享功能不同,后者本质仅为被动的图像共享与数据传输工具,而搭载智能体的新型屏幕共享功能则更多涉及人工智能对用户提供的环境数据的主动识别与动态解析。

然而,此类新型屏幕共享功能在提升交互效率与沉浸体验的同时,也带来不少法律上的担忧。当AI“看见”用户的屏幕并作出反馈,其实也同步采集、处理了大量极具敏感性的个人信息乃至他人隐私、商业秘密。在提升交互效率与沉浸体验的同时,也存在滥用收集系统敏感权限的嫌疑,其中潜藏的隐私保护与数据安全法律隐患亟待解决。

二、AI产品屏幕采集数据功能的法律定性

屏幕采集数据可能涵盖个人信息、重要数据或商业秘密,系多种数据类型的复杂混合体,其核心属性取决于在特定场景中采集的具体内容。以市场上某AI产品的屏幕共享功能为例,其屏幕采集数据可能涵盖多种数据类型。其《隐私协议》中规定,用户主动拍摄,或输入图片、语音时,根据功能需要,数据处理者会根据用户输入的信息类型分别请求用户授权相机、相册(存储)、麦克风权限。《隐私协议》回避了对可能采集到的数据字段类型化划分,间接使得在法律层面难以就某一屏幕采集行为作出精准定性。

从用户使用实践中界定,屏幕采集数据既可能属于个人信息,也可能涉及敏感个人信息,甚至是包含非个人信息(如公开信息)的混合体。依据《个人信息保护法》对个人信息的定义,屏幕采集数据中若包含姓名、身份证号、生物识别信息等可直接识别特定自然人的内容,无疑属于个人信息;当涉及医疗健康、金融账户、行踪轨迹等一旦泄露或非法使用,容易导致自然人的人格尊严受到侵害或者人身、财产安全受到危害的信息时,则应被认定为敏感个人信息。在敏感程度界定上,需结合信息的可识别性、信息主体的权益影响程度、数据泄露后的风险危害等级等因素综合判断。

此外,如采集内容涉及受保护的企业商业秘密、内部资料,也可能触发反不正当竞争法中的相关义务。以及,屏幕内容中若包含公开的新闻报道、政府公示文件等,这类数据本身已处于公开领域,属于一般数据范畴。现实中,用户上传的屏幕画面往往是多个数据类型并存的复合体,在数据处理机制中应建立分类识别和分级管理制度,防止“一刀切”式的滥采行为,需分类分级处理。

《个人信息保护法》第四条明确规定,“个人信息的处理包括个人信息的收集、存储、使用、加工、传输、提供、公开、删除等”,“收集”属于个人信息处理活动的重要环节之一。实务中,对于“屏幕共享是否构成信息收集”这一问题存在不同观点。数据采集行为的认定标准尚未有法律能一一细化规制。一种观点认为,只要平台未存储原始图像、分析过程在本地完成,即不构成信息收集。另一种观点则强调用户知情与数据利用意图,认为只要用户未明确知晓处理路径,或平台将分析结果用于算法训练、功能优化等用途,即应视为“收集”。从权利保护角度出发,第二种观点更具合理性。若AI平台通过视觉识别技术自动提取、标注用户上传画面中的文本、图像、操作行为等,并用于后续建模、产品改进,则已超出“即时互动”所需,构成对用户数据的主动处理,应依法取得用户明确授权。

三、AI产品屏幕采集数据功能的法律适用

AI的屏幕共享与数据采集功能,在缺乏充分透明度和有效用户控制的情况下,存在侵犯用户隐私权、个人信息权益、数据安全以及可能构成不正当竞争的重大法律风险,亟需法律规制。

(一)数据处理原则的适用

在AI驱动的屏幕交互场景中,数据处理原则的适用面临诸多复杂问题。

一是“单独同意”的适用。《个人信息保护法》明确要求处理敏感个人信息需取得用户的单独同意,而屏幕信息天然包含或可能涉及生物识别数据、金融账户、行踪轨迹、未成年人信息等敏感内容。理论上,每一次屏幕共享均应触发单独同意机制,但在产品体验上频繁弹窗显然不可行,极易导致用户授权疲劳甚至形式化同意。在部分具有屏幕共享功能AI产品《隐私协议》中就有相关规定,“如您使用视频通话或屏幕共享功能时的输入涉及他人信息的,请您务必在提供该信息前获得他人的合法授权。”这一转移义务的安排,难以真正保障第三方知情权与选择权,反而将平台的原生责任转嫁给普通用户,进一步增加了“单独同意”的适用难度。

二是最小必要原则的适用。相关产品在《隐私协议》写明的“获取的信息仅用于为您提供问答,不会用于别的用途。”虽然以协议方式界定了数据处理过程中的数据使用范围,但实际上恰恰规避了最小必要原则。最小必要原则在法律条文中主要表述为“必要的原则”“不得过度处理”“在目的、范围内处理”等,其判断标准较为模糊。实践中,亦有俞延彬诉北京乐友达康科技有限公司等网络侵权责任纠纷等案在判决中细化了最小必要原则的适用,即必不可少应当从用户视角出发,而非从个人信息处理者视角判断。

三是“告知-同意”机制的法律适用难。屏幕共享属于高度侵入性场景,传统仅提供隐私政策链接使用效果存疑。用户往往不会主动点击查看冗长复杂的隐私政策,导致对自身权益让渡缺乏清晰认知。平台应通过更具可视性和互动感的方式告知用户,而非“一次性全授权”的简单处理。

(二)训练数据合规

当前,AI模型涉及版权保护内容合规的训练已成为监管与舆论焦点。具体而言,用户通过屏幕共享等方式输入的信息中,极有可能包含受版权保护的作品内容,如文学作品片段、艺术设计图稿、音乐创作小样等。当平台未经版权所有者明确授权,便将此类信息纳入模型训练数据集时,这一行为是否能被认定为著作权法意义上的“合理使用”,在法律实践与学术讨论中尚无定论。

以前述AI产品为例,其隐私政策中说明,平台会对用户向AI输入的数据、发出的指令,以及AI生成的回复、用户的产品访问和使用情况进行分析并用于模型训练,以不断调整优化模型效果和产品体验。然而,在此过程中,平台所收集的训练数据不可避免地可能涉及用户输入的版权作品数据。在缺乏版权方授权的前提下,将这些受版权保护的数据用于AI模型训练,是否满足版权法中“合理使用”的构成要件,包括使用目的是否具有正当性、使用比例是否适当、对版权作品市场价值的影响程度等,当前法律界与技术领域尚未达成统一共识,有待进一步厘清。

(三)智能体无障碍权限使用

AI技术深度融合数据采集与屏幕共享功能场景下,侵权归责的复杂性显著提升。尽管有的软件已设置弹窗提示“开启前请注意其他人已知晓,确保已获得其他说话人或相关权利人的合法授权”,但在实际使用中,相关提示常被用户忽视或默认接受,导致合规保障机制作用有限。更需要注意的是,软件运行中对于相关权利人是否知情和授权,没有互动授权机制。

此类智能助手通过摄像头、麦克风等接口采集用户的实时数据,并基于屏幕共享画面提供动态建议。当AI所给建议因识别错误或模型偏差导致用户财产损失、人身伤害等后果时,平台是否应当承担侵权责任,如何界定因果关系与过错比例,成为司法实践中的关键问题。

特别是在以下情形下:一是算法本身存在缺陷,平台未尽到合理审查与测试义务;二是用户并未充分理解数据用途而误操作;三是第三方数据源影响AI判断结果。这些因素共同作用下,平台、用户、第三方之间的责任边界亟需通过规范化规则加以厘清。

四、如何有效解决AI产品中安全与发展的平衡

当前,AI产品屏幕共享涉及海量个人信息和潜在商业秘密,对其监管涉及网信、工信、公安、市场监管等多个部门,但各类主体职能较为分散,容易出现监管盲区和重复监管的情况。或可通过整合职能,建立统一的监管机构或综合监管平台,集中资源、提高监管效率,确保AI产品屏幕共享功能监管的有效落实。将科技和政策结合进行融贯性治理,采取敏捷性治理思路,如发布专项合规指引指导产业实践,快速响应技术迭代带来的潜在新型风险,在保障用户权益与促进创新间寻求动态平衡。

此外,企业端也应需严格遵守数据处理原则,满足数据采集的合法性要求。首先,必须明确界定实现特定功能所必需采集的最小屏幕区域和数据范围。在技术上实现动态、精准的数据收集,避免“全景敞视”式的过度采集。其次,需建立针对屏幕数据采集的专项数据质量管理规范,明确在采集、传输、存储、处理等环节对数据完整性、准确性和安全性的具体要求,确保数据在后续处理过程的合法性,尽可能降低因数据来源不合规导致的法律风险。最后,应压实AI产品服务提供者合规责任,建立覆盖屏幕采集数据全生命周期的管理制度,落实数据管理责任,明确数据控制者、处理者的具体义务,以期实现高效透明的数据治理。

屏幕共享功能天然存在数据被超范围使用、滥用或泄露给第三方的法律风险,亟需通过制度创新和技术赋能,构建安全高效的数据流转控制体系,确保在跨部门、跨领域的数据协同利用的同时达到合规基线。一方面,需构建清晰的AI屏幕数据治理框架,明确数据在内部处理、共享、跨境传输等场景下的规则。在借鉴欧盟《通用数据保护条例》(GDPR)和《数据治理法案》(DGA)构建的数据治理框架,强调数据的安全性和隐私保护,同时推动数据的开放共享和跨域流通,但需特别关注屏幕信息的敏感性。另一方面,必须建立用户数据流向的强透明度与控制机制。用户应能清晰知晓其屏幕数据被用于何种目的、流向何处。必须杜绝未经用户明确、单独同意将屏幕数据用于非关联目的或共享给无关第三方。平台需提供便捷的工具,让用户能有效管理其数据的共享范围和撤销授权。

完善数据安全法律法规,明确数据安全责任,加大对数据泄露、滥用等行为的惩处力度。对此,可应用隐私计算技术实现屏幕的数据的“可用不可见”,在支持必要功能的前提下,最大限度保护原始数据隐私。监管侧可借鉴新加坡的“数据沙盒”监管模式,建立灵活的数据安全监管机制。新加坡通过“数据沙盒”允许企业在受控环境中测试数据应用,同时明确数据安全责任,确保测试过程中数据的安全性和合规性。技术侧可进一步推广隐私计算、区块链等新兴技术,保障数据的安全流通和利用。隐私计算通过联邦学习、多方安全计算等技术,实现数据“可用不可见”,在保护数据隐私的同时支持数据分析和应用。典型应用如新加坡政府科技局(GovTech)开发的可信数据共享(Trusted Data Exchange)框架。该架构通过加密和分布式计算技术,确保数据在传输和存储过程中的安全性,同时支持数据的跨机构共享和利用。企业侧可对传输和存储中的屏幕数据进行加密,实施严格的访问控制和权限管理,建立全面的审计日志记录所有数据访问行为,增强入侵检测和应急响应能力。

五、结语

对AI屏幕共享与数据采集功能进行有效的法律规制与风险管控,是其得以释放数据要素价值并健康良性运行的前提。通过从政企双端协同治理,严守数据处理原则、构建安全可控的数据流转机制、筑牢数据安全核心防线等治理手段,我国对于此类新型人机交互模式的治理能力将显著提升。此举有助于在防范新技术、新业态引发的潜在法律风险基础上,为提升人机协同效能和构建可信人工智能生态注入新的合规动能。

本网站上的内容(包括但不限于文字、图片及音视频),除转载外,均为时代在线版权所有,未经书面协议授权,禁止转载、链接、转贴或以其他 方式使用。违反上述声明者,本网将追究其相关法律责任。如其他媒体、网站或个人转载使用,请联系本网站丁先生:news@time-weekly.com

扫码分享