首页 >>  正文

松刹车后不踩油门不走

来源:baiyundou.net   日期:2024-07-29

【环球时报报道 记者 n曹思琦】大型语言模型GPT-4及其相关的人工智能(AI)技术应用最近在火爆全球的同时,也引起广泛担忧。意大利个人数据保护局4月6日称,聊天机器人ChatGPT的开发公司OpenAI向意大利当局提交补救措施,以解决监管机构的担忧。上月末,意大利成为全球首个禁用ChatGPT的国家后,美国、德国、法国和爱尔兰等多国也相继表达了当前AI技术“存在风险”的观点。更让科技界震动的是,一封包括上万名科技界人士联名签署的公开信呼吁,所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月时间。

一封联名公开信引爆科技圈

人类社会技术风险研究机构“生命未来研究所”于3月29日发布了公开信,呼吁由于“最近AI实验室陷入了一场失控的竞赛,只有当我们确信AI大模型的影响是积极的并且风险是可控时,才能开发更强大的AI系统”。这封公开信吸引了包括图灵奖得主约书亚·本吉奥、特斯拉创始人埃隆·马斯克、苹果联合创始人史蒂夫·沃兹尼亚克以及《人类简史》的作者尤瓦尔·赫拉利等上千名科技大佬、人工智能专家和学者的联合签名。截至目前,该研究所官网显示已有超过1.3万人签署该公开信。

瑞士一所学校就ChatGPT的使用展开研讨。

这封公开信所担忧的就是以GPT-4大型语言模型为代表的最新AI技术。GPT-4是由OpenAI公司开发的人工智能程序,它可以快速生成流畅、准确和有逻辑的文本,还可以理解和回答各种类型的问题,甚至可以为用户进行创造性和技术性的写作。它最著名的衍生应用产品就是ChatGPT聊天机器人,网友使用后普遍感叹“难以分辨到底是在与AI还是与真人聊天”。

公开信明确提出:“具有人类智能水平的AI系统可能对社会和人类带来极大的风险,这一点已经得到顶级AI实验室的认同。”该信呼吁所有人工智能实验室应立即暂停训练比GPT-4更强大的AI模型,为期至少6个月。在此期间,公开信建议实验室和独立专家合作,针对AI的设计和开发建立共享的安全协议,并由独立的外部专家监督,确保AI系统“安全、无可置疑”。

目前国内也有知名学者、业界人士参与公开信签名,表达支持性观点。中国社科院研究员段伟文认为:“我们有必要通过暂停这种慢科学策略,使科技的力量在我们可以掌控的节奏下有序绽放”。清华大学教授梁正认为:“在这个时候提出这样的警示是必要的……人类可以借鉴核武器发明后签署核不扩散条约的经验,共同探讨提出针对通用人工智能的治理规则与防范手段,确保人工智能真正服务于人类福祉与未来。”

反对者的声音也有不少。例如Meta首席技术官安德鲁·博斯沃思认为,这封公开信“不仅不现实,而且也不会有效”。“通常情况下,你必须先了解技术是如何发展的,然后才能知道如何保护和确保它的安全。”力挺AI发展的比尔·盖茨也表示,公开信的呼吁不会有效,“我不认为暂停发展AI就能解决问题。很显然AI的进步有着巨大的益处,我们需要做的是找出那些棘手的领域”。

信任危机源自“算法黑箱”

面对AI竞赛的一路狂飙,人类究竟应该“踩刹车”还是“踩油门”?安远AI创始人、牛津大学人工智能治理中心政策研究员谢旻希接受《环球时报》记者采访时表示,不论是公开信的支持者、反对者还是旁观者,对当前AI系统的能力、风险、问题的可解决性等,都存在较大认知差异。必须承认的是,包括OpenAI在内的各国专家也没法解释GPT-4等大模型的行为,对其局限和风险的理解则更为欠缺。“我们认同GPT-4等级的大模型能创造巨大社会价值,风险防控需要把握分寸,不因噎废食。但AI创新与现实风险的平衡并非总是正确,有其前提。当科技风险非常严峻时,就只能风险防控优先,需要强化底线思维防范化解重大风险。”

从原理上看,ChatGPT是基于大量的文本数据进行训练,通过深度学习技术学习文本的语义和语法规律,从而实现自然语言处理的各种任务。这也意味着供它学习的数据库至关重要。但让国内外专家普遍质疑的是,OpenAI一直没有披露ChatGPT和GPT-4使用的训练数据、如何训练以及运作方式。这意味着在AI深度学习输入的数据和其输出的答案之间,存在着人们无法洞悉的“黑箱”,由此产生对这类AI技术的信任危机。

基于现有的深度学习原理,这类AI技术备受诟病的一点就是算法歧视与算法偏见。据报道,美国网民对ChatGPT的测试发现它有明显的政治立场,例如它拒绝写诗称赞美国前总统特朗普,却可以毫无障碍地称赞现任总统拜登。这就与ChatGPT使用的数据库有关,“大多数的训练数据本身就是有偏见和不安全的”。但在OpenAI没有公开相关算法的情况下,很难对偏见进行修正。由于“算法黑箱”的存在,甚至就连OpenAI团队也没有搞明白ChatGPT的推理能力到底是如何实现的。

北京通用人工智能研究院院长朱松纯教授在今年2月与加州大学伯克利分校教授斯图尔特·罗素的谈话中表示,虽然GPT-4这类大型语言模型已取得一些惊人进展,但在处理任务方面的能力有限,它们只能处理文本领域的任务,无法与物理和社会环境进行互动。这意味着像ChatGPT并不能真正“理解”语言的含义。此外,大型语言模型也不是自主的,它们需要人类来具体定义好每一个任务,就像“鹦鹉”只能模仿被训练过的话语。虽然ChatGPT已在不同的文本数据语料库上进行了大规模训练,但它并不具备理解人类价值或与人类价值保持一致的能力,即缺乏所谓的“道德指南针”。

因此ChatGPT和GPT-4都出现过“一本正经胡说”的情况,OpenAI称之为“幻觉事实”。当前ChatGPT开始大量被科学界用于辅助研究工作,包括整理会议记录、撰写文献综述和论文手稿等,“编造答案”问题已产生相当恶劣的影响。一名德国生物学家在接受《自然》杂志采访时说,ChatGPT曾给他列出一个完全虚构的参考文献列表,里面没有一篇真实存在的论文。

ChatGPT还存在泄密风险。不久前韩国三星集团内部发生三起ChatGPT误用与滥用案例,如三星内部人员在ChatGPT上提问、验证答案,却让这些答案成为ChatGPT的学习数据库,若有其他使用者在ChatGPT上提出相关疑问,恐让三星企业机密外流。为了规避数据泄露风险,软银、日立、富士通、摩根大通等不少企业明确禁止员工使用ChatGPT。

另外,最近风靡社交平台的AI图象生成软件Midjourney绘制的“特朗普被捕”等难辨真伪的照片在网上疯传。不少业内人士都担心未来这类AI技术可能被别有用心的人利用,产生虚假或误导性的信息,进而影响政治舆论、煽动暴力等。

“用AI识别AI”没解决辨真伪难题

在是否需要对AI发展设限的问题上,南京信息工程大学人工智能产业学院执行院长邹荣金在接受《环球时报》记者采访时表示,AI技术能提高生产力,带来社会价值,“这就像有了汽车之后,却要求大家不许用汽车,继续用马车,这条路是行不通的”。

朱松纯此前也表示,回顾漫长的智能进化史可以预测,通用人工智能的诞生几乎是不可避免的。为预防未来的通用人工智能给人类带来威胁,我们可以逐步放开通用智能体的能力空间和价值空间。我们可以先将AI系统的适用场合和行动空间限制在特定区域内,随着我们对AI的信任增加,确认AI系统安全可控后,再逐步给予它们更大的空间。另外,我们应该促进算法决策过程的透明度。“如果能外显地表示通用人工智能的认知架构,知道它是如何工作的,就能更好地控制它。”

由于ChatGPT和GPT-4产生了大量真假难辨的数据,目前各国都在推进针对现有AI技术结果的智能识别,这也被戏称为“用AI识别AI”。但业内专家承认,目前相关进展并不太顺利。例如针对学校作业和论文是否是ChatGPT的结果,出现了不少专业的文件检测工具,就连OpenAI也推出了名为AIText nClassifier的文件检测器,但它们的识别正确率都不高。为此,英美等大批学校不得不明确禁止在论文和课程作业中使用ChatGPT,否则将被视为学术不端行为。

相对于识别AI文本,Midjourney等AI软件生成图片的识别难度更大。此前由于AI绘图对于人物手部的处理结果有所欠缺,因此可通过手部细节辨别是否是AI绘图的成果。但MidjourneyV5版本的更新就基本解决了手部细节的问题,目前更多需要从照片上的地面阴影朝向、人物眼神方向等细节进行分辨。邹荣金表示,随着AI技术的下一步迭代,未来很可能出现人类很难识别的情况。专家们担心,生成虚假图片的AI技术一直在进步,特朗普的名气使“特朗普被捕”这类照片的真伪很容易被识别,但要识别出普通人相关的图片可能困难重重。

邹荣金表示,针对这个问题,OpenAI除了开发AI技术之外,还在开发虹膜认证技术。“即使将来进入人工智能时代,要识别一篇文章是你写的还是机器写的,有了生物特征的唯一对应后,每一个信息出来都是可追溯来源的。”

美国高盛公司近日发布的报告称,生成式AI会导致劳动力市场出现“重大混乱”。邹荣金认为,“AI技术的推进,必然会有一些岗位将被替换,而且替代的速度会很快。这种焦虑一定是存在的,但会不会带来社会的动荡呢?我想暂时不会那么快。它过渡也是渐变的。ChatGPT最厉害的地方在于能编写程序,未来将应用在各个领域,我们表面上看到是聊天文字,但其实它将来会在各个领域应用。”

","gnid":"9dd2db99f3464c3ec","img_data":[{"flag":2,"img":[{"desc":"","height":"843","title":"","url":"https://p0.ssl.img.360kuai.com/t0173aac885aaec37e1.jpg","width":"1260"}]}],"original":0,"pat":"art_src_1,fts0,sts0","powerby":"hbase","pub_time":1680908920000,"pure":"","rawurl":"http://zm.news.so.com/783f248dd8e5616f5fad204710b78876","redirect":0,"rptid":"7d00c00bebc95192","rss_ext":[],"s":"t","src":"海外网","tag":[{"clk":"ktechnology_1:人工智能","k":"人工智能","u":""},{"clk":"ktechnology_1:环球时报","k":"环球时报","u":""}],"title":"一封联名公开信引爆科技圈!AI竞赛,踩刹车还是踩油门?

庾供凭1299手动挡车子发动以后,松掉离合器松掉脚刹松掉手刹不踩油门的情况下车子会走吗不会熄火吧? -
强清闵18873207223 ______ 您好 ,这个取决于哪款车型,一般情况下,平整路面慢慢抬离合是可以不熄火的,但一般手动挡驾驶者都会轻轻加一点油,免得车辆耸动熄火,望采纳,谢谢

庾供凭1299自动挡汽车倒车时,不踩油门车不走是什么原因2017? -
强清闵18873207223 ______ 你好,自动挡的车发动机和变速器之间是靠液力变矩器来传递动力的,当你倒车的时候或者前行的时候,如果用怠速驱动车子,车子的动力没上来,就无法克服地面的摩擦阻力,所以不会倒车或者前行,这是正常现象,不用担心.望采纳!

庾供凭1299自动挡车挂挡不踩油门跑不跑? -
强清闵18873207223 ______ 在平直路面上,轮胎气压正常,制动能完全松开,自动档车挂档后不踩油门,汽车会缓慢且稳定的移动,专业术语称为自动档车的“爬行”现象.当踩住刹车,汽车会静止不动,也不影响发动机的怠速运行.这是因为自动变速器配置的变矩器有自动离合动力的能力.

庾供凭1299林肯大陆,倒车时松刹车,不踩油门不走是为什么. -
强清闵18873207223 ______ 刹车后刹车片不会自己回位,要车轮转动后慢慢回弹,

庾供凭1299自动挡松刹车后车不走是什么问题 -
强清闵18873207223 ______ 刹车分泵锈死不回位,检查一下哪一个换掉就好了

庾供凭1299自动档汽车启动时,松开刹车,不踩油门车会走吗?能走100米吗?倒?
强清闵18873207223 ______ 挂在D档的话,不加油也能走, 挂在空档的话,不加油就不走,但如果路面不平会滑行. 倒车时,一般不用踩油门,加油的话速度很快,不安全,但如果倒车上坡肯定要踩油门了!

庾供凭1299把汽车刹车睬到底,松开,为啥挂上档为啥不走 -
强清闵18873207223 ______ 有的车型有一个停车辅助,需要踩下油门踏板才会走

庾供凭12991.6L自动挡车子发动后不预热放刹车不踩油门车子走不动正常吗 -
强清闵18873207223 ______ 正常,冷车的时后发动机需要提高转速,此时离合器自动全部松开,所以不能走

庾供凭1299自动挡的新骐达,不知问什么这两天发现松刹车后车子有时候不动,必须踩油门才能动,此情况正常吗
强清闵18873207223 ______ 有,而且问题不小,不要开了,老哥... 刹车分泵抱轮了,去4S店检查一下吧,把车架起来,踩下刹车然后看那个轮抱住了,在检查刹车钳是否锈住了或刹车分泵不回位,如果都没事就要考虑刹车总泵的问题了, 最简单的检查方法就是在你的车跑一段后下车检查车轮温度看看是否一致,如个别温度很高,就是它了 抱轮是恨危险的,刹车片和刹车盘进行摩擦产生高温危害很大,曾经有车抱轮产生高温致使车辆起火的事故发生,,,,,,,,

庾供凭1299自动挡车,挂在D档 松刹车 轻踩油门不走怎么回事?手刹已经松了. -
强清闵18873207223 ______ 你好.你的车还没有打着火.你怎么开呀.先打着火.然后松开刹车就可以走了.不用踩油门自己会走的.还有你不会的话.你还是不要开.以免危险.还是去学习一下车呀,

(编辑:自媒体)
关于我们 | 客户服务 | 服务条款 | 联系我们 | 免责声明 | 网站地图 @ 白云都 2024