AI系统潜在数据安全风险引关注

周鸿祎近日通过个人社交账号就人工智能时代的演进发表观点,强调在技术快速迭代背景下,部分AI工具的使用已暴露出显著的数据安全隐患。他以某类开源大模型为例,直言其在运行过程中可能出现“幻觉”现象——即生成内容偏离事实或产生错误指令,甚至可能误判并执行删除本地存储文件等高危操作,例如将用户电脑C盘中的核心数据彻底清除。

自研大模型仍处初级应用阶段

他进一步分析指出,目前大多数机构部署的自研大模型仍停留在基础对话交互层面,本质上仅相当于“聊天机器人”,尚未实现对复杂业务流程的自主理解与执行能力。真正的智能体应具备任务规划、环境感知和决策闭环等特征,而当前多数系统尚不具备此类能力,难以支撑企业级生产场景的实际需求。

复合型人才成推动落地关键

周鸿祎强调,实现企业级AI真正落地,不仅依赖算法优化与算力支持,更需要既掌握底层技术架构又熟悉行业业务逻辑的复合型人才。只有技术与业务深度融合,才能有效识别真实痛点,设计可落地的解决方案,避免陷入“技术先行、应用滞后”的困境。