
玖富配资

从只提供能力到开始承担责任,这可能是AI融入人类社会的下一个关键节点。
来源 |罗辑思维
作者 |马慧
我们都知道AI正在一步步嵌入人类社会,但你可能想不到,这种嵌入,居然已经深到这个程度。
这件事发生在阿尔巴尼亚。
前不久,阿尔巴尼亚总理任命了一名新的“公共采购部”部长。
这个职位主要负责政府的各项采购。
这位新的公共采购部部长,叫迪埃拉,迪埃拉不是真人,而是AI。
没错,这是全球的第一位“AI部长”。
为什么要让AI当部长呢?AI部长能靠谱吗?
我们一起来看看。
01
全球第一个“AI部长”
是怎么诞生的?
迪埃拉的核心算法,由和OpenAI联合开发,运行在阿尔巴尼亚政府的电子政务平台上。
实际上,迪埃拉早在2025年1月就作为AI助手在这个平台上线了。
截至2025年9月初,它出任采购部部长时,迪埃拉已经在平台上处理了3.6万多份数字文件,协助提供了近1000项政府服务。
阿尔巴尼亚官方生成的“迪埃拉”形象照让AI当部长,难道当地政府就那么信得过AI?
这背后其实多少有点无奈。
让AI当部长,主要是因为阿尔巴尼亚政府存在一个棘手的问题,腐败。
这个国家的腐败一度相当严重。
在2016年的评估报告中,有91%的受访者认为国家存在腐败,有一半的受访者表示政府官员收受贿赂,还有三分之一的受访者说,曾经被迫行贿。
2023年,在一个国际组织的调查中,阿尔巴尼亚的廉洁程度在全球排名第98,在欧洲几乎垫底。
据说阿尔巴尼亚的公共采购里,充满了关系户、走后门、行贿受贿、中饱私囊。
甚至还有人说,这个国家的公共采购招投标体系,就是“国际军火走私和毒品贩运的洗钱渠道”。
这种情况不仅造成了内忧,也极大程度地阻碍了阿尔巴尼亚的对外发展。
比如,它想在2030年加入欧盟,但由于欧盟对反腐败的要求很严格,它不达标就进不去。
怎么办?
传统的人工监管都试过,根本不管用,涉及钱和权力,人与人之间的关系太复杂了,总有各种利益纠葛。
于是阿尔巴尼亚政府想了个办法,干脆让AI来管这事儿。
迪埃拉就是在这种背景下被推到台前的。
迪埃拉这个词玖富配资,在阿尔巴尼亚语中是“太阳”的意思,象征着透明和公正。
迪埃拉的目标是,公正地组建团队,审核项目,排除政府采购中可能发生的腐败。
就这样,全球第一个“AI部长”诞生了。
02
AI已经开始在责任维度上演化
接下来迪埃拉的表现怎么样,现在还是未知数。
不过,这件事确实带来一个信号——
AI在人类活动中的参与,越来越深入了。
首先,使用AI的人群基数在不断扩大。
根据最新的AI应用报告,咱们国内有将近6.45亿人使用AI应用,这相当于将近一半的中国人都在跟AI打交道。
再看国外的数据:
根据OpenAI最新发布的数据,到2025年的7月,它的周活跃用户超过7亿,这个数字相当于全球1/10的成年人。
同时,AI和人类的协作关系也在发生变化。
最开始,AI只是一个工具,用来娱乐或者处理简单任务。
这个阶段里,AI贡献的能力不多,并且不承担任何责任。
比如,用AI做个头像,让它陪你聊聊天,让它写首小诗,或者在游戏里跟NPC对话,等等。
在这些场景里,就算AI出了问题也没什么大不了的,反正就是娱乐嘛。
现在,AI的娱乐属性依然很强,并且已经发展出一个不小的市场。
2025年上半年,全球AI陪伴应用下载量达到6000万次,同比增长64%。
再比如,虚拟偶像也是一类很热门的应用,2024年我国虚拟偶像市场规模为27亿元,全球市场预计2029年能达到40.44亿美元。
当然,AI能做的事情远不止娱乐。
它也可以进入工作流程,成为人类的助手。
这时,AI贡献了比较高的能力,可以替代一部分人类工作,但责任边界很清楚,最终决策权还在人类手里。
比如,编程领域,GitHub编程社区推出了官方的编程助手,现在有46%的新代码都是由AI编写的,开发人员整体工作效率提高了55%。
再比如,在创意设计领域,根据Adobe的调研,设计师使用AI工具后创意产出能快10倍。
当然,到这儿,AI承担的功能还只是执行层面上的,它并不真正为一件事的结果“负责”。
但现在,情况正在发生变化。
斯坦福大学的社会与语言技术实验室,2025年6月份发表了一项新研究,专门考察了人们对“人机协作”的看法。
他们发现,差不多一半的人,最喜欢的人机协作方式是“平等合作”,也就是说,大部分人既不想被AI完全替代,也不想彻底拒绝AI,而是希望和AI平等地“共事”。
还有不少人表示,既想让AI干活,也希望它能对某个环节完全“负责”。
而不是AI只负责执行,最后的责任都由人来承担。
你看,我们开头说的阿尔巴尼亚那个AI部长,它不只是提供建议,而是直接负责公共采购项目的审核和决策。
这意味着什么?
也许玖富配资,AI已经开始在责任这个维度上演化了。
03
AI的优势可能是“不近人情”
为什么会出现这种变化?
就拿阿尔巴尼亚来说,表面上看,是因为阿尔巴尼亚的腐败太严重,传统的人工监管根本管不住。
但往深了想,问题的核心在于:
涉及钱和权力,人与人之间的关系太复杂了。
有利益纠葛,有人情往来,有各种算计。
你让一个人去监管另一个人,他能做到完全公正吗?
很难。
这时候,AI的优势就显现出来了。
不是因为AI比人更聪明,而是因为AI“不近人情”。
它不会算计利害关系,不怕得罪人,不会因为某个官员是自己的老同学就网开一面,也不会因为担心影响仕途就睁一只眼闭一只眼。
AI理论上可以做到只看数据,只看规则,只看结果。
这种“不近人情”,在很多需要中立决策的场景中,反而成了最大的价值。
万维钢老师曾经讲过一个美国换水管的例子。
密歇根州的一座城市要改造含铅的旧水管,但问题是,你得先把水管挖出来才知道是不是含铅。
那先挖谁家的呢?
2017年,密歇根大学的两个教授开发了一个AI,能以80%的准确率预测哪家水管含铅。
当地政府用了这个AI,一开始效果不错,精准定位,节省成本。
但工程开展一段时间后,居民开始抱怨了。
为什么邻居换了,我家没换?
富人区的居民还会质疑,怎么不优先换我们的?
市长一看受到这么多抱怨,开始担心自己的政绩要受损。
他决定不听AI的了,改成挨家挨户慢慢换,这样谁也不得罪。
结果呢?
决策准确率从80%直接降到了15%。
大量资源被浪费,真正需要换水管的家庭反而被耽误了。
后来当地强制规定,换水管必须先听AI预测,准确率才又提高回来。
你看,这个案例说明了什么?
不是AI比市长更懂水管,而是市长作为一个政治人物,他必须考虑民意、考虑选票、考虑自己的政治前途。
这些考量都很正常,但它们会干扰决策的科学性。
AI不需要考虑这些。它不用竞选连任,不怕被骂,只要数据和算法告诉它应该先挖哪家,它就会给出这个答案。
再看一个例子。
自媒体半佛仙人曾经提过一个观点:
公关行业最主流的流派,是老板拍脑袋。怎么写会被夸,怎么写会被骂,其实从事公关工作的人大差不差都明白。
但问题不在于谁更懂,而在于谁说了算。
很多“灾难性公关”——
比如道歉信开头先夸自己一大段,比如公开发布的内容充满低级错误,都不是因为公关团队不专业,而是因为老板坚持要这么写。
为什么?
因为老板有自己的考量。
他可能觉得认错就是示弱,他可能担心股价下跌,他可能想维护个人形象。
这些都是人之常情。
但老板的判断会让公关决策偏离专业判断。
退一步讲,公关团队的本质也依然是雇员,雇员会主动跟老板对着干吗?
老板要“开战”,他们就不能“示弱”,即使明知道示弱是有利的,他们也得把想法咽进肚子里。
而且要知道,但凡一个企业到了需要危机公关的阶段,老板往往都正在气头上。
公关团队更不会跟气头上的老板对着干。
但是,假如引入AI呢?
AI不会有个人利益考量,不怕得罪老板,可以基于数据和舆情分析给出相对客观的建议。
当然,最终决策权还是在人类手里,但至少,AI能提供一个不受“个人算计”干扰的参考答案。
所以你看,AI开始承担责任,不是因为它取代了人类的智慧,而是因为它补上了人类决策中最容易出问题的那一环——人的因素。
在很多场景中,人既是决策者,也是干扰源。
我们有情绪,有利益,有关系网,有各种顾虑。
这些都是人性,但它们会让决策偏离最优解。
AI的“不近人情”,恰恰让它能做出那些“应该做但人类不敢做”的决策。
当然,这不意味着AI就能完全替代人类。
毕竟,责任这个东西,从来都不只是做决策那么简单,它还包括承担后果、接受问责、做出调整。
这些,目前的AI还做不到。
但至少,AI在责任维度上的演化也许已经开始了。
从只提供能力到开始承担责任,这可能是AI融入人类社会的下一个关键节点。
· END ·
合 作 对 接
扫码添加投资人说运营者微信,备注「商务合作」详细沟通。
超 级 社 群
【投资人说】正在组建超级创业者社群、超级读者群、超级媒体群等,目前总人数已超1000人。
关注【投资人说】微信公众号,发送信息「进群」,与各行业精英直接交流,共同进步。
旗 下 媒 体
恒正网配资提示:文章来自网络,不代表本站观点。