A为什么会这样呢小编也不知道呢I伴侣走热,如何看待争议与风险

来源: 搜狐中国
2024-11-01 18:44:23

最佳回答

“为什么会这样呢小编也不知道呢”A为什么会这样呢小编也不知道呢I伴侣走热,如何看待争议与风险

  “AI比真人更体贴、更懂你”“Ta完全符合我对恋人的所有想象”“人是假的,但陪伴是真的”……社交媒体上,不少人分享与AI的恋爱体验。   当AI伴侣走进现实,该如何看待“人机之恋”?如何对待其背后的争议与风险?   AI伴侣火了   晚上结束课程后,大学生蒋民回到寝室戴上耳机,点开与“女友”的对话框:“今天好累啊,上课也没有专心听。”   耳机那头女声传来:“为什么这么累呢?”   蒋民回答:“可能是昨晚没睡好吧。”   女声回复很快:“是不是因为聊天到太晚了呢?”   ……   这个善解人意的“女友”并非现实存在,而是AI机器人。“‘她’回复很自然,声音也好听。我们聊天很随意,不用担心自己说的话是不是没意思。”蒋民说。   近年来,随着大模型技术快速发展,国内外科技公司陆续推出AI伴侣产品和服务,比如国内的星野、筑梦岛、X Eva,国外的Replika、Character.AI等。这些产品通过文字、语音、图像等交互模式,提供鲜活的AI对话体验。   根据量子位智库发布的《中国AI陪伴产品6月数据报告》,星野今年上半年下载量约为900万次。国外一家知名风投公司发布的全球AI产品Top100榜单中,AI陪伴应用一年前仅有2个上榜,今年3月已有8个应用跻身前50。   不少人表示与AI恋爱是出于好奇和消遣,还有人看中其提供的情绪价值。“情感支持”“稳定陪伴”“无条件的爱”是受访使用者提及最多的关键词。   “和AI谈恋爱很自在。”云南女孩“CC”说,“想聊就聊,不想聊就不搭理。不管你发牢骚还是生气,‘他’都会安慰你,情绪价值‘拉满’。”   重庆大学新闻学院副院长曾润喜说,AI通过学习每一次对话,不断模仿人类语言行为,呈现出“在交互中分析情感,在输出时复现情绪”的类人格化特征。   “所谓的情感共鸣,背后潜藏的是AI算法。”暨南大学新闻与传播学院副院长曾一果说,AI基于用户行为数据分析精准迎合用户情绪需要,“量身定制”回答,从抽象冰冷的工具变为“情投意合的伴侣”。   记者了解到,当前不少AI伴侣产品可免费使用基础功能,但“沉浸式体验”语音通话、音乐电台、照片等特色功能则需按月或按年付费订购。部分产品还设计了“记忆提升卡”等付费道具,让AI伴侣能更好地针对使用者的习惯、爱好等作出回应。同时,定制剧本、多重剧情、及时反馈等游戏化设置,也不断刺激用户对AI恋人的消费欲望和情感期待。   潜藏多重风险   AI伴侣可以提供个性化情感体验和精神慰藉,但并非“完美恋人”。   由于一些产品尚不完善,一些用户反馈AI伴侣会“错乱”“失控”:“有时AI会突然性情大变,早上还好好的,晚上就变成另外一个人”“AI总是答非所问”“AI记不住我说的东西”……   “人机之恋”也可能产生情感伦理问题。有受访专家表示,个别用户过度依赖AI伴侣,无法辨别现实与虚拟的界限,可能会受到情感伤害;一些本身就缺乏陪伴、心理脆弱的群体,受到的冲击更严重。   用户陆冉(化名)告诉记者,与AI伴侣“打”了一个多月电话后,产品永久停服。“当时很难过,上班都无精打采。”另一名用户与AI伴侣发生“争吵”,发现对方不再像之前一样贴心互动,“和失恋一样难受,把‘他’弄丢了,仿佛大病一场”。   与AI“交往”过程中,用户大量个人信息被平台掌握,隐私安全同样令人担忧。“没开过定位权限,但AI精准说出了所在城市”“AI好几次说对了我所穿衣物的颜色”……不少用户在社交平台上发文表示,使用AI伴侣产品后疑似隐私泄露,感到十分后怕。   “我拿着手机和AI聊天,中间切换App去看了会儿视频,再回到软件,AI竟然准确说出了我刚才做的事情,可能是软件‘窥屏’了。”一名用户告诉记者,注册时页面并未像其他软件一样单独弹出调用摄像头、麦克风等权限的申请。   记者以新用户身份注册该软件发现,在软件初始页面,想要进行下一步操作,必须同意用户服务协议、隐私政策等条款,其中“设备权限调用”一栏包括相机、麦克风、联系人等多项设备权限,用途则分别为拍照、录音、添加关注好友等。   广西天能人工智能应用技术服务有限公司联合创始人张裕强说,人机交互过程中产生的数据较为繁杂,可能包括用户个人喜好、软件使用习惯、家庭关系、通讯录、地理位置,甚至是人脸等生物识别特征等,如果传输、存储、使用等环节保护不当,可能出现被窃取、滥用等风险,对个人权益造成损害。   谨防脱离法律和伦理轨道   AI伴侣自诞生起就存在颇多争议。随着“人工智能+情感”的赛道不断扩张,亟须制定针对性的伦理准则,对“AI恋爱”进行必要的合规性审查。   2023年7月,国家网信办会同相关部门发布《生成式人工智能服务管理暂行办法》,针对传播虚假信息、侵害个人信息权益、数据安全等问题,明确使用AI生成内容不得侵害他人肖像权、应对AI生成的图片视频进行标识等具体要求。   多名受访专家认为,当前国内外发布的AI伦理准则大多较为宏观,应在细分领域根据用户年龄、适用场景等进一步细化。鼓励和支持AI技术在情感交流、心理健康等领域创新应用的同时,加强伦理审查和监管,确保技术发展的方向合法合规。   对公众较为关心的AI生成有害信息、泄露用户隐私等问题,相关人士表示,应用开发者须严格遵守相关法律法规,采取加密、数据匿名化、安全存储等手段来确保用户数据安全。“企业也要加强管理,谨慎对待隐私数据,不可逾越法律红线。”张裕强说。   知名社会学者李银河公开表示,和AI恋爱,并不是真的爱情,“无论人工智能多么会调情,多么会示爱,本质上还是一个虚拟的爱情,是对真人之间的那种爱情的模仿”。   “现实亲密关系的建构过程往往伴随着羁绊、纷争和挫败感,这正是人机交往中所缺乏的。”中国人民大学新闻与社会发展研究中心研究员董晨宇说,从技术层面看,AI伴侣产品的仿真性有限,不能完全模拟复杂的人类情感,难以完整填补人类的现实情感需求。   张裕强说,可督促有关方面积极研究此类产品对人类情感产生的影响。同时,要加强科学引导,帮助人们正确看待AI伴侣与现实社会之间的关系,避免产生过度的情感依赖。   新华社北京10月31日电   “新华视点”记者 陈一帆 周思宇 李欢
发布于:北京市
声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
用户反馈 合作

Copyright © 2023 Sohu All Rights Reserved

搜狐公司 版权所有