导读 在AI时代,用户输入的信息成为大模型进步的“垫脚石”,白领们日常用AI工具提效,甚至用AI叫外卖、订酒店。然而,这种数据收集和使用方式带...
在AI时代,用户输入的信息成为大模型进步的“垫脚石”,白领们日常用AI工具提效,甚至用AI叫外卖、订酒店。然而,这种数据收集和使用方式带来了巨大隐私风险。用户不清楚AI工具的数据收集、处理和存储方式,担心数据被滥用或泄露。今年,ChatGPT数据泄露事件和Meta AI模型侵犯版权事件引发了公众对大模型数据安全和个人隐私保护的担忧。
《科技新知》实测7款国产大模型产品发现,不少产品在信息披露透明度方面表现不佳。用户难以撤回数据授权用于AI训练,且大模型训练语料的来源和版权问题不透明。此外,智能体、端侧AI的应用带来更复杂隐私泄漏风险。这些问题侵蚀了用户对大模型的信任。大模型行业需提升透明度,积极优化产品设计与隐私政策,监管部门也应完善相关法律法规,确保大模型行业健康、可持续发展。
标签:
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。