湖北“英子姐姐”助五千余困难学生圆求学梦

发布时间:2024-09-08 13:27:43 来源: sp20240908

   中新网 湖北长阳7月1日电 题:湖北“英子姐姐”助五千余困难学生圆求学梦

  记者 郭晓莹

  “小斌高考622分,小爽595分,小莉上体院稳了,小若大学毕业留在沈阳成了一名选调生,小豪今年也毕业了,就职于上海华为,他们都是我们资助的孩子。”连日来,刘发英不断收到喜讯,在介绍这些孩子的信息时,她的言语中透出几分自豪,眼睛笑成了两道月牙。

  党的二十大代表、全国优秀共产党员刘发英,是湖北省长阳土家族自治县实验小学教育集团副校长,她的另一个身份是“英子姐姐网络助学平台”创始人。她用一根网线搭建起助学的桥梁,累计募集助学资金3000多万元,帮助5000多名贫困学子圆了求学梦。

  刚刚录完学生信息,刘发英的微信就弹出一张汇款凭证截图,江苏常州爱心人士资助小伟的3000元助学金已到账。

  刘发英迅速打开登记册,手写填入捐助人和受助人信息。这本登记册显示,小伟是“英子姐姐网络助学平台”的第5091位受助学生。

刘发英录入捐助人和受助人信息。郭晓莹摄

  自2005年开始以“英子姐姐”的名义通过网络为困难学生发帖求援至今,刘发英开展网络助学已19年。在刘发英看来,在网络世界里寻求资助,需要付出百倍的诚信,资助流程和结果必须公开、透明。

  为获得爱心人士的信任,刘发英首创了“一家一户实地走访”“一月一册爱心档案”和“一分一厘公开透明”工作模式,即:每位困难学生的资料都由英子姐姐团队走访并核实;详细记录每一笔善款来源、去向,让每一份助学档案都清晰可查;善款全部足额发放给困难学生,绝不从助学款中提取一分钱工作经费。

19年来,刘发英手写了200多本助学台账,每一份助学档案都清晰可查。郭晓莹摄

  “我们会把资助人的联系方式和资助款一起送到受助学生或者其家长手里,方便他们一对一联系。如果资助人因某种原因停止资助,我们会重新给孩子寻找新的资助人,学生完成学业后,网站上的信息也会随之删除。”刘发英说,这种“一对一”闭环结对帮扶模式和网络助学“全透明”模式一直延续至今,获得了越来越多捐助人的信任,全球2000多位爱心人士和众多爱心企业向平台汇入善款,为困难学生带去温暖和希望。

  小娟从小父母离异,随患病的母亲生活,初中毕业考上职校后外出打工。英子姐姐团队为她募集了助学款,帮助她完成了学业。毕业后,小娟回到家乡当了一名乡村教师,并加入英子姐姐助学团队,坚持每年拿出一个月工资资助困难学生。

  目前,英子姐姐助学团队的志愿者已达1300余人。像小娟一样,很多曾经受助的学生毕业后加入到助学团队中,去温暖和帮助更多人。“英子姐姐”网络助学早已不是刘发英一个人的执着,而是一个庞大团队的坚守。

  今年4月,长阳慈善·英子姐姐公益基金成立,这是英子姐姐网络助学团队在长阳土家族自治县慈善会设立的冠名基金,可以公开向社会募捐,拓展公益活动范围。该基金的成立为“英子姐姐网络助学”打开了新局面,目前已募集善款近20万元。

  “作为一名教师,我只是做了我认为应该做的事情、有意义的事情,仅此而已。”刘发英告诉记者,她将继续做好网络助学,在爱心助学道路上继续守护孩子们的梦想。(完)

【编辑:李岩】

Warning: Cannot modify header information - headers already sent by (output started at /www/wwwroot/jintexws.com/snews.php:13) in /www/wwwroot/jintexws.com/snews.php on line 17
如何识破大语言模型“幻觉”回答?国际最新研发出“以毒攻毒”检测方法 - 深化立法领域改革,做到改革和法治相统一(权威访谈·学习贯彻党的二十届三中全会精神)

如何识破大语言模型“幻觉”回答?国际最新研发出“以毒攻毒”检测方法

发布时间:2024-09-08 13:27:44 来源: sp20240908

   中新网 北京6月20日电 (记者 孙自法)基于人工智能(AI)的大语言模型(LLM)回答问题并非总是准确可靠,有时甚至极其智能地以“幻觉”方式提供胡编乱造的答案让人真假难辨,对此如何予以有效检测广受关注。

  国际著名学术期刊《自然》最新发表一篇人工智能研究论文称,研究人员开发出一种能检测大语言模型“幻觉”的方法,这种方法通过“以毒攻毒”方式,能测量生成回答的含义的不确定性,或能用于提升大语言模型输出的可靠性。

  该论文介绍,大语言模型(如ChatGPT和Gemini)是能阅读和生成自然人类语言的人工智能系统。不过,这类系统很容易产生“幻觉”,生成不准确或没有意义的内容。检测大语言模型出现“幻觉”的程度很难,因为这些回答的呈现方式可能会让它们看起来很可信。

  在本项研究中,论文第一作者兼通讯作者、英国牛津大学Sebastian Farquhar和同事合作,尝试量化一个大语言模型产生“幻觉”的程度,从而判断生成的内容有多少忠于提供的源内容。他们的方法能检测“幻觉”的一个子类别——“编造”,特指不准确和随意的内容,常出现在大语言模型缺乏某类知识的情况下。针对“编造”问题,他们研发的方法考虑了语言的微妙差别,以及回答如何能以不同的方式表达,从而拥有不同的含义。研究表明,该方法能在大语言模型生成的个人简介,以及关于琐事、常识和生命科学这类话题的回答中识别出“编造”内容。

  《自然》同期发表同行专家“新闻与观点”文章指出,最新研究的检测任务由一个大语言模型完成,并通过另一个大语言模型进行评价,相当于“以毒攻毒”。虽然用一个大语言模型评估一种基于大语言模型的方法似乎是在循环论证,而且可能有偏差,但他们的方法有望帮助用户理解在哪些情况下使用大语言模型的回答需要注意,这也意味着可以提高大语言模型在更多应用场景中的置信度。(完) 【编辑:管娜】