“共情”AI出现了,你会与之共情吗

发布时间:2024-08-23 21:35:04 来源: sp20240823

  【科技创新世界潮】

  本报记者 张梦然

  当我们想到有情感的人工智能(AI)时,素材其实都来源于科幻作品,其中的情感式AI常常被描述成一个寻求人类同等爱意的孤独者,或心思缜密的电子大脑。

  现在,一家由前“深度思维”(DeepMind)研究员担任首席执行官的初创公司“Hume AI”,发布了一款标榜为“第一个具有情商的对话式AI”的共情语音接口(EVI),其能够检测到用户53种不同的情绪。

  这是技术上的一个飞跃。“Hume AI”公司已在一次B轮融资中筹集了5000万美元,但随之而来的,也有人们夹杂了恐惧的希冀。

  情感是AI的分水岭吗

  1997年,IBM的“深蓝”打败了国际象棋世界冠军,其强大的计算力、纯粹的暴力破解法震惊人类,也扭转了AI研发的形势。这种暴力破解法,后来就被用于机器学习,在看似具有无数种可能的对战中轻松取胜。

  现在,各领域AI挑战人类的消息不断传来,可能会给人这样一种错觉:计算机在认知能力方面已堪比人类。

  但两者之间仍存在一条鸿沟。机器学习和自然语言专家格雷格·霍兰德告诉人们,人脑可以解决AI前所未见的问题,而机器学习依然是针对特定问题而设计的。

  实际上,考虑AI的实现程度,需精准地用强AI和弱AI来划分。“强”是认为计算机不仅作为一种工具,其本身就是有思维的。这样的机器有知觉,有自我意识。

  而“弱”则是认为不可能制造出真正进行推理并解决问题的机器,AI终究是没有自主意识的工具。长期以来,主流研究也正是围绕“工具”展开的,且成就可观。

  但也因此,很多人将是否具有知觉或情感,当成了AI发展的分水岭。

  AI需要理解情感吗

  AI的下一个重要问题是理解和运用情感吗?“Hume AI”的答案是肯定的。该公司的初衷即是要让一个情感智能模型更好服务人类。

  该公司认为,情感智能包括从行为中推断意图和偏好的能力。这正是AI界面试图实现的核心目标:推断人们想要什么,然后去实现它。因此在某种意义上,情感智能才是AI界面最重要的功能。

  同样作为聊天机器人,“Hume AI”与前辈们的区别在于,它专注于理解人类情感并作出合理反馈。它不仅能理解文本,还可使用语音对话接口,听取人类的语调、音高、停顿等声音特征来加深理解。

  这种理解可能非常细微,包括但不限于人们的快乐、悲伤、愤怒、害怕等“大情绪”,连更微妙、更多维的“小情绪”也在体察范围内,譬如钦佩、崇拜、沉迷、讽刺、羞耻等,“Hume AI”在其网站上总共列出了53种不同的情绪。

  不得不说,像讽刺这种常常带有反意的情感表达方式,连人类也不是每每都能察觉到的。

  你害怕有情感的AI吗

  其实,人们害怕的不仅仅是能感知情感的AI。近年来,在AI迅猛发展的同时,反思和提醒的声音一直存在。

  业界著名公众人物的警告也有可能放大恐惧。如被评为“爱迪生的合法继承人”的美国科学家库兹韦尔推断:在2045年,AI将超越人类大脑,促进社会剧烈转型,跨入高智能机器时代。此外,“钢铁侠”埃隆·马斯克也曾说过,AI或许很快会强大到能统治世界的地步。

  但普通人会觉得,在到达那一步之前,AI需要再多点什么——感知情感,可能就是缺失的那一环。

  “Hume AI”演示之后反响十分热烈。但网络上已开始有人担心,用户会以一种不健康的方式沉迷于它的“魅力”,同时滋生一些不良用途,譬如诱导、操纵、欺诈等。

  人类的情感并不只有正面情绪。当AI试着了解甚至学习人们的情感行为时,是否会主动或被动地利用其来达到某些目标?譬如诱导购买、养成恶习、心理折磨等。

  当缺少伦理限制与法律红线时,被当作工具的,可能是人们自己的情感。

  (科技日报) 【编辑:唐炜妮】


Warning: Cannot modify header information - headers already sent by (output started at /www/wwwroot/jintexws.com/snews.php:13) in /www/wwwroot/jintexws.com/snews.php on line 17
平台企业如何筑牢未成年人网络权益“防火墙”? - 今起一批国家标准正式实施

平台企业如何筑牢未成年人网络权益“防火墙”?

发布时间:2024-08-23 21:35:06 来源: sp20240823

  国务院颁布的《未成年人网络保护条例》(以下简称《条例》)将于2024年1月1日起施行,这是我国首部专门性的未成年人网络保护综合立法。《条例》规定了培育未成年人网络素养、规范网络信息内容等未成年人网络保护领域的基础制度,并强调了平台企业主体责任。平台企业如何落实即将施行的《条例》?如何构建未成年人网络保护合规体系?针对这些问题,记者采访了专家和多家平台企业。

  《条例》解读

  对大型平台企业提出特别要求

  “《条例》压紧压实平台企业主体责任,明确规定了平台企业在未成年人网络保护中的具体义务。”北京青少年法律援助与研究中心主任佟丽华介绍,比如要求智能终端产品制造者应当在产品出厂前安装未成年人网络保护软件,或者采用显著方式告知用户安装渠道和方法;强化智能终端产品的未成年人保护功能;规范网络信息内容管理等。

  同时,《条例》第二十条明确了对未成年人用户数量巨大或者对未成年人群体有显著影响的网络平台企业的有关义务要求。

  “很多大型社交娱乐以及信息资讯类平台企业,面临着复杂的未成年人保护形势。未成年人用户数量巨大或者对未成年人群体有显著影响的网络平台企业,不仅要模范遵守《条例》关于网络企业所有合规制度的要求,还必须从六个方面遵守特别的要求。”佟丽华指出。

  这些要求包括:在网络平台服务的设计、研发、运营等阶段,充分考虑未成年人身心健康发展特点,定期开展未成年人网络保护影响评估;按照国家规定建立健全未成年人网络保护合规制度体系,成立主要由外部成员组成的独立机构,对未成年人网络保护情况进行监督等。

  与此同时,根据《条例》,违反未成年人网络保护义务的企业将面临严厉的法律责任。

  “多年来,未成年人保护等领域的社会法都面临着社会上一个重大关切:那就是法律道德化,违反法律缺乏有效的处罚,违法成本过低。”佟丽华指出,《条例》规定了全面的法律责任条款,尤其是相关企业在违反《条例》要求的时候,本着宽严相济的原则,规定了不同程度的法律责任。

  “很多平台企业对怎样做好未成年人网络保护工作了解不够、重视不够,也不清楚如何更好地做工作。”佟丽华说,从国家立法的角度来看,《条例》与其说给平台企业提出了各种要求,不如说指明了方向、确立了方法,企业只有积极落实规定才能实现健康持续发展。

  专家建议

  平台企业进行未成年人网络保护状况专项评估

  平台企业在未成年人网络保护中发挥着重要作用,如何落实是社会关注的问题。佟丽华提到了“定期评估”的要求。

  “现在很多平台企业依然没有做到这一点。”佟丽华指出,此次《条例》中有几项非常具体的条款,如第二十条要求“定期开展未成年人网络保护影响评估”“每年发布专门的未成年人网络保护社会责任报告”。

  “在《条例》施行前,平台企业应以负责任的态度对企业未成年人网络保护状况进行专项评估,尤其是未成年人用户数量巨大或者对未成年人群体有显著影响的大型平台企业,尽快开展一次专项评估是非常必要的。”

  同时,佟丽华指出,平台企业内部部门林立,很多决策以及工作都围绕着企业利益在开展,未成年人保护工作往往处于边缘状态,这严重影响了平台企业开展未成年人保护工作的成效。因此,他建议未成年人用户数量巨大或者对未成年人群体有显著影响的网络平台企业尽快建立未成年人保护内部协调机制,公司主要负责人牵头协调,每年定期召开会议,从企业战略、重大决策、重点工作等各方面贯彻未成年人保护理念,明确企业具体负责未成年人保护工作的部门及其职责,负责开展未成年人保护工作。

  “政府、企业、家庭、学校、社会组织各方都要参与进来,只有各方主体共同努力,才能有效解决问题。”佟丽华说,无论在哪个国家,在数字时代发展过程中对数字技术的应用,相对于政府、学校、家长来说、企业都是走在前面的。因此,企业应该参与到培养未成年人网络素养、培养老师和父母网络素养的过程中。

  企业探索

  提升技术手段,营造绿色安全网络环境

  《条例》公布之后,各方也行动起来。11月12日,由北京市委网信办指导、首都互联网协会和北京师范大学新闻传播学院主办的“e起首护”《未成年人网络保护条例》普法宣传活动启动仪式上,首都互联网协会向会员、企业等发出《未成年人网络保护行业自律倡议》。

  记者了解到,针对家长反馈的痛点、难点,平台企业通过引入大模型技术、提供家长管理工具、建设信息“防火墙”、预装软件过滤有害信息等举措,保护青少年健康触网。

  以网络游戏为例,自2021年游戏防沉迷新规落实后,未成年人玩家每周游戏时间被控制在3小时内,但部分未成年人使用各种手段绕过监管仍是让家长头疼的问题。对此,网易游戏借助AI大模型技术对未成年人保护体系进行智能升级,推出AI巡逻员提高未成年人风险行为识别准确率。

  调研数据显示,违规登入游戏的未成年人玩家主要是使用了成年人的账号,AI巡逻员的第一项任务就是基于未成年人行为精准判断疑似未成年人玩家,并进行行为干预。而针对疑似未成年人的不理性消费行为,AI巡逻员能够做到提前预测,在消费发生前就介入干预拦截。

  此外,网易AI巡逻员专门配备了多维的监控与打击体系,包括危害未成年人不良信息AI识别模型、不良信息的过滤与隔离机制、未成年人社交风控模型、网络黑手专项打击等,以系统化且多维化的监管模式,严打网络中的有害信息。据悉每月过滤不良信息超7300万条,全方位构建绿色的网络游戏空间。

  据统计,试运行至今,AI巡逻员已成功辨别出使用成年人信息进行实名认证的未成年人超千万并纳入监管,干预上万个未成年人使用成人账号的高额消费,处理涉骚扰未成年人玩家违规账号8万多个。

  为了进一步防止部分未成年人冒用成年人身份进行游戏和消费的现象,《蛋仔派对》将持续优化和升级AI巡逻识别技术。尤其针对存在大额充值行为的高风险用户,游戏内将强制弹窗进行人脸识别认证,不通过认证的账号会被锁定,无法进行游戏。

  此外,网易游戏成立了专为未成年人服务的部门“网易游戏未成年人保护中心”,下设防沉迷产品开发、网络环境治理、网络安全教育等工作组,系统构建了全新的未成年人保护机制。此外,还设立了一个特殊的客服团队——网易游戏未成年人保护团队,快速响应解决家长在未成年人游戏行为监管中遇到的问题。保护团队在接收到家长关爱平台上的相关举报后,会以最快的速度查实情况,并与家长沟通解决问题,确保未成年人的网络安全。

  抖音则采取了包括强制进入青少年模式、提供家长管理工具等在内的多种措施,在安全使用、防沉迷管理、优质内容生态建设等领域全面保护青少年上网安全。

  网络上的违法和不良信息一直是家长担忧的问题。针对这一痛点,未开启青少年模式场景下,抖音通过技术手段主动进行人群识别保护,一旦判断疑似未成年人使用时,即刻上线保护措施,保护未成年人不受不良评论内容侵害,并对可能存在风险的私信会话进行安全提醒。此外,重点对饭圈文化、邪典、不良价值观(炫富、丧文化等)、软色情等风险进行详细梳理,通过上线多种类型风控模型策略,深入挖掘清理侵害青少年权益、危害青少年身心健康的违规内容、话题、账号等,对相关内容进行严格处置。

  新京报记者 苏季 【编辑:卞立群】