AI引领手机革新,却也触发隐私警报
今年,安卓和iPhone的更新将聚焦于AI技术,其中谷歌将扮演关键角色。然而,这也为用户带来了新的挑战和警告,预示着手机使用方式的深刻变革。
谷歌的巨型AI模型Gemini,将生成式AI融入了我们日常生活中不可或缺的手机应用中,其影响或将超越去年ChatGPT的推出。我们正处于这样一个变革的时代。
但请注意,这一切也伴随着巨大的安全和隐私风险。
在面对生成式AI聊天机器人时,我们似乎都有盲区。我们总是关注所安装的应用、授予的权限、使用的浏览器以及与Facebook、谷歌等公司的数据共享。然而,一旦与AI聊天机器人互动,我们可能会忘记这些,陷入与这个“有益的新朋友”的私人对话中,渴望分享信息。
但请记住,这并非真正的朋友。它是背后有着数十亿美元计算生态系统的前台,最终由广告和数据经纪业务提供资金支持。
已有警告指出,AI聊天机器人进入我们的私人消息应用所带来的风险。随着Bard转变为Gemini,大量新应用准备进入我们的手机,谷歌自己也向所有安卓和iPhone用户发出了对这些新技术的高度警惕。
谷歌警告称:“请不要在对话中输入机密信息或任何您不希望审核者看到的数据,这些数据可能会被谷歌用于改进我们的产品、服务和机器学习技术。”谷歌会收集您在Gemini中的对话、相关产品使用信息、位置信息和反馈,以“改进和开发谷歌产品、服务和机器学习技术”。
尽管谷歌保证“您在Gemini中的对话不会被用于向您展示广告”,但这可能会改变,届时“我们会明确地通知您”。
这里的风险在于,那些与各种AI聊天机器人过度分享的用户可能会陷入巨大的隐私困境。这些聊天机器人帮助他们编写商业计划、销售演示文稿或作业。当您退出聊天时,您提出的问题和获得的回答将被存储为记录,这意味着它们可以被检索和审查,甚至可能泄露。
值得注意的是,独立应用只是一个开始。谷歌还警告说:“当您将Gemini与其他谷歌服务集成和使用时,它们将保存并使用您的数据来提供和改进其服务,这与其政策和谷歌隐私政策一致。如果您使用Gemini与第三方服务进行交互,它们将根据自己的隐私政策处理您的数据。”
我们才刚刚开始理解生成式AI的风险。例如,谷歌Gemini(前身Bard)似乎会要求查看您过去的所有私人消息,以塑造其建议的上下文和内容。它还可能破坏Messages的端到端加密。
真正的问题在于非本地、开放式存储。谷歌表示,默认情况下,数据将被存储长达18个月,“您可以在Gemini应用活动设置中将其更改为3或36个月。您设备、IP地址的一般区域信息以及谷歌帐户中的家庭或工作地址也与您的Gemini应用活动一起存储。”
当然,这不仅仅是谷歌的问题。在新兴的生成AI行业中,这种程度的数据收集和使用相当常见。我们如何评判谷歌与OpenAI等公司的安全性和隐私性还有待观察。
但正如ESET的Jake Moore所警告的那样:“我们在线分享的任何数据,即使是在私人渠道中,也有可能被存储、分析甚至与第三方共享。当信息成为一种优质资产甚至被视为一种货币时,AI模型可以被设计成深入挖掘用户透露的大量个人信息。数据共享最终可能在未来制造安全和隐私问题,而许多用户对这些风险一无所知。”
谷歌称,如果您调整Gemini的设置,可以关闭长期数据收集。“未来的对话不会被发送给人类审查或用于改进我们的生成式机器学习模型……您也可以从固定和最近的聊天中删除聊天。当您这样做时,相关活动也会从‘您的Gemini应用活动’中删除。”但即使这样,“您的对话将保存在您的帐户中,最长可达72小时,以允许我们提供服务并处理反馈。这些活动不会出现在您的Gemini应用活动中。”
正如之前的评论所指出的,驱动这一新一代智能手机功能的AI分析在设备端/设备端外的性质将成为新的鸿沟。苹果可能会在其自己的应用和服务上尽可能多地在设备端本地进行——如果可行的话。我们知道它现在正在试验在设备端/设备外的性能。鉴于谷歌完全不同的设置和重点,它将在云端做更多工作。
对于数百万已经在手机上安装了由Gemini驱动的应用的安卓和iPhone用户来说,他们面临一些艰难的选择。其他人也不会落后太多。
我们不能两全其美。要么我们重视隐私,重视近年来在私密浏览、跟踪和位置共享方面取得的巨大进步。要么我们认为集成到主流应用中的AI实在太酷了,难以割舍,于是我们会无所不用其极。
如果选择后者,那么这可能会成为最终的“小心你所祈求的”。在这个充满变革和挑战的时代,我们需要更加审慎地思考我们的手机使用习惯,以及我们愿意为了便利而牺牲多少隐私。