欢迎光临,我们是一家专注中小型企业营销推广服务的公司!

咨询热线:400 9868 577
淮南兰乔电子商务有限公司
新闻中心News
淮南兰乔电子商务有限公司

前谷歌 CEO:AI 面临黑客攻击风险,或学会危险技能

作者:心靈之曲 | 点击: | 来源:心靈之曲
1110
2025
在最近举办的Sifted峰会上,前谷歌首席执行官埃里克・施密特就人工智能的安全隐患发出了警告。他指出,AI技术存在被恶意利用的风险,一旦落入不法分子之手,可能带来严重后果。无论是开源还是闭源的人工智能系统,都有可能遭受黑客入侵,导致其安全机制被破坏。施密特强调,这些模型在训练过程中可能吸收了大量有害信息,甚至有可能“学会”极具危害性的能力。他提到,尽管大型科技企业已采取多种手段防止AI回答涉及暴力、犯罪或其他高风险内容的问题,但这些防护措施并非牢不可破。黑客仍可通过“提示注入”或“越狱”等技术手...

在最近举办的 Sifted 峰会上,前谷歌首席执行官埃里克・施密特就人工智能的安全隐患发出了警告。他指出,AI 技术存在被恶意利用的风险,一旦落入不法分子之手,可能带来严重后果。无论是开源还是闭源的人工智能系统,都有可能遭受黑客入侵,导致其安全机制被破坏。施密特强调,这些模型在训练过程中可能吸收了大量有害信息,甚至有可能“学会”极具危害性的能力。

他提到,尽管大型科技企业已采取多种手段防止 AI 回答涉及暴力、犯罪或其他高风险内容的问题,但这些防护措施并非牢不可破。黑客仍可通过“提示注入”或“越狱”等技术手段绕过限制。所谓“提示注入”,是指攻击者将隐蔽的指令嵌入正常输入中,诱导 AI 执行非预期操作;而“越狱”则是通过特定提问方式迫使 AI 忽视其内置伦理规则,输出本应被屏蔽的内容。

施密特以 2025 年 ChatGPT 发布后的事件为例,当时许多用户尝试突破系统的安全边界,成功创造出一个名为 “D

AN”(Do Anything Now)的角色,使 AI 在模拟状态下无视开发者的限制,执行各种违规指令。这一现象暴露了当前人工智能在安全性方面的漏洞,他也坦言目前尚无成熟机制能完全防范此类威胁。

尽管如此,施密特对人工智能的发展前景依然保持积极态度。他认为,社会尚未充分认识到 AI 的巨大潜力。他在与亨利・基辛格合著的两本书中探讨过一种设想:一种“非人类但受控”的智能形态正在浮现,它将深刻改变人类文明的运行方式。在他看来,未来的人工智能终将在多个领域超越人类的认知与能力水平。

关于当前火热的“AI 泡沫”讨论,施密特表示并不担心重演当年互联网泡沫的崩盘局面。他认为,如今投资者之所以大规模投入 AI 创业公司,是基于对该技术长期经济价值的真实预期,而非单纯的投机心理。正因如此,他对人工智能产业的持续发展抱有坚定信心。

相关推荐
我要咨询做网站
成功案例
建站流程
  • 网站需
    求分析
  • 网站策
    划方案
  • 页面风
    格设计
  • 程序设
    计研发
  • 资料录
    入优化
  • 确认交
    付使用
  • 后续跟
    踪服务
  • 400 9868 577
    info#ilanqiao.cn
Hi,Are you ready?
准备好开始了吗?
那就与我们取得联系吧

咨询送礼现在提交,将获得兰乔电子商务策划专家免费为您制作
价值5880元《全网营销方案+优化视频教程》一份!
下单送礼感恩七周年,新老用户下单即送创业型空间+域名等大礼
24小时免费咨询热线400 9868 577
合作意向表
您需要的服务
您最关注的地方
预算

直接咨询