新智慧报告主编:庆庆【新智慧导论】2025年,AI将像空气一样无处不在,但我们会越来越不敢呼吸。美国各地的一项调查揭示了技术繁荣的幻想。效率的背后是体力劳动者的衰落和白领的盲目。当“超越对方”不再重要时,我们该如何维护作为人的最终解释权?过去20年,电视、电脑、互联网、智能手机等广泛普及的技术也表现出了同样的结果。这意味着感到惊讶、接受和信任,直到它变得像呼吸一样自然。但这条逻辑应用于人工智能时就行不通了。虽然他在短时间内渗透到了我们的生活中,但却没能取得我们的信任。美国人对人工智能重要性的判断。很多人认为人工智能是与智能手机相媲美的重大技术,而不是“文明”蒸汽机或电力等“级”基础设施。在人们的认知中,人工智能不像互联网或智能手机,而是像一种新型社交网络,高效、有粘性、有威胁。美国公众对不同技术整体社会影响的净评分对比。总体对人工智能的偏好明显低于互联网或智能手机,更接近社交网络。人们放弃了对技术的热情,第一次认真考虑这个“新朋友”。我们真的要把我们的整个未来托付给人工智能?先使用它,然后再了解它。人工智能正在成为新的“中介黑匣子”。使用人工智能的人很多,但你认为真正理解她的人却少得多。这并不是某个科技公司的年度总结,而是探照灯研究所进行的一项全国性调查。研究人员对一些实际问题比对问题更感兴趣模型性能。这是关于当人工智能真正进入我们的生活时人们如何看待它。为什么我们会感到焦虑?研究结果令人震惊。近一半的受访者认为,像 ChatGPT 这样的工具只是“查看数据库”或根据预先建立的脚本进行响应。工具和公司之间的认知脱节。 ChatGPT 是一个家喻户晓的名字,但超过 40% 的人从未听说过 OpenAI。像Anthropic这样核心技术圈的公司,80%以上的人都没听说过。美国公众对各大科技公司的认知对比。与谷歌、亚马逊等传统科技公司相比,人工智能公司仍存在巨大的“认知差距”。先尝试一下再了解。这是非常危险的“逻辑逆转”。如果我们把验证、选择和总结的工作交给人工智能,而不知道它是如何运作的,它会使用什么标准,谁会影响它,权力的平衡就会悄然倾斜。该报告详细介绍了人工智能如何成为新的“信息中介”。越来越多的人不再直接访问原始信息,而是第一次习惯看到模型生成的摘要、排名和描述。这意味着,无论是公共问题还是健康信息,人工智能实际上在我们看到它之前就对其进行了“处理”。当这种类型的过滤成为一种微妙的习惯时,它不仅成为消息来源是否准确的问题,而且还成为消息来源是否准确的问题。当然可以,但我们看到的是现实世界还是人工智能制造的世界?相同的技术,不同的生存本能。研究表明,白领群体对人工智能的接受度更高。他们巧妙地将其融入到他们的写作、组织和分析过程中。对于他们来说,人工智能可以提高生产力并提高效率。但如果你站在服务人员或者蓝领工人的角度来看,情况却恰恰相反。超过一半的服务CE行业员工相信,人工智能最终将取代他们目前的生计。他们不关心模型的质量或版本的变化。他们只关心这个系统是在帮助我还是在针对我。这确实是这次调查中最残酷的部分。由AI创建的划分从来不是关于使用AI的能力,而是关于他们相遇时生存的直觉。他们移动到不同的位置。对于白领来说,人工智能可以接管简单、低风险的任务。但对于服务提供商来说,人工智能将侵蚀标准化、可重复且易于用数据衡量的劳动力。美国AI用户热门使用场景。人工智能目前更多地用于信息检索和文字处理等认知任务,而不是直接干预实际生产工作。即使采用相同的技术,我们一方面看到效率的提高,另一方面看到失业的倒计时。美国人对两国关系的判断en 人工智能和工作。这些问题并不局限于特定行业。大多数美国人认为人工智能将取代工作岗位,而不是补充工作岗位。这种恐惧也不是均匀分布的。调查发现,医生、电工和维护人员不太担心被“取代”。因为他们知道,真实的物理世界充满了模糊的情境和未知的地方,是当前算法难以进入的禁域。在生死存亡的时刻,人类无法将“道德责任”转移给代码。人工智能可以处理大量数据,但它无法决定是否处理这些数据。虽然我们可以提出准确的建议,但我们不对最终结果负责。在这条看不见的鸿沟的顶端,人工智能不仅是进步的象征,也是职业和阶级之间冒险不平等的一面冷镜。 2025年的转折点:速度不再是最高值。人们对自己所做事情的态度是肯定的令人惊讶的是一致的。超过三分之二的受访者认为,目前政府对人工智能的监管太少。这并不是要求公司按下暂停按钮,也不是禁止该技术本身。人工智能可以继续发展,但有明确的价值观,即必须对其进行测试、限制和问责。真正有趣的是关于“速度和安全”的多项选择题。 “国际竞争中监管缓慢,即使硬性筹码摆在桌面上,大多数受访者仍然面无表情:他们更愿意接受更慢但更安全的‘无限制教学’。这是非常明显的历史逆转。长期以来,技术进步总是被表现为一场势不可挡的军备竞赛。如果你慢了,你就会被超越,如果你犹豫,你就会被淘汰。但当谈到人工智能时,公众开始意识到:赢得一场比赛的奖励与赢得一场比赛的奖励不同生病了。最终必须承受的后果通常不是同一群人承担的。考虑到全球竞争,美国公众显然仍然希望优先制定人工智能安全和隐私规则。如果胜利的代价是工作不稳定、隐私暴露和被退回的诉讼,那么即使技术指标遥遥领先,这场胜利也不会让人安心。美国公众最关心的问题之一是人工智能风险和监管重点。大多数担忧集中在就业、隐私和信息秩序等实际方面。该研究还有更极端的假设。换句话说,在“全面放开人工智能管制”和“直接禁止开发”之间,大多数人都不会投票给前者,甚至经历了长期的犹豫。这种犹豫本身就是一种陈述。人们不再迷信“技术越快越好”。他们正在考虑风险是否即将结束他们的个人生命ves。不要相信算法会做出所有决定。在这项研究中,人们并没有盲目拒绝它。相反,大家对AI的认识非常清晰。事实上,基于明确的规则来处理问题更高效、更快、更好。但当问题开始变得模糊时,当后果必须由特定的人承担时,当决策涉及复杂的价值权衡时,信任不会盲目地倾向于技术。这就是为什么人类在道德、复杂决策和透明度方面仍然被认为是不可替代的。人工智能可能会给出看似完美的答案,但它并没有考虑到该答案的后果。所谓的防线并不是要阻止奥尔托技术的发展,而是要保持判断力、责任链和对错误的最低承诺。随着信息开始被算法过滤,工作被系统重组,决策越来越多地发生在看不见的“中间层”,人类真正需要保护的是解释世界的权利:谁有权做出决定,谁应该对这些决定负责。这也使得2025年显得尤为不同。今年,人们开始停下来问自己:“在人工智能进一步进化之前,我们是否已经清楚地划清了属于人类的界限?”参考:https://x.com/rohanpaul_ai/status/2003646532676194634https://www.searchlightinstitute.org/research/americans-have-mixed-views-of-ai-and-an-appetite-for-regulation/妙柴ASI ⭐赞一键继续观看⭐点亮星星,信之根!
特别说明:以上内容(包括图片和视频,如有)由自有媒体平台“网易帐号”用户上传发布。本平台仅提供信息存储服务。
注:以上内容(包括图片和视频,如有)由网易号社交媒体平台用户上传、编辑和发布,仅提供信息信息存储服务。