不到一年,被捧上神坛的“英雄”成了“人人喊打的过街老鼠”,国家是时候出手管管AI了,而决不能一味地推崇推广,任何事物都是有利有弊的,科技就是把双刃剑。 今年三月中旬,Meta公司内部出了一起严重的AI安全事故,一款内部员工用的AI工具,本来是用来分析技术问题的,结果没经过员工允许,就擅自在内部论坛上发布了解答建议。 发帖的员工照着这个建议操作,直接引发了连锁反应,导致存储着公司和用户敏感数据的系统,被没有权限的员工访问了快两个小时。 Meta把这事定为第二高级别的安全事故,虽然说没有证据表明有人乱用这些数据,但也足够让人警惕。 其实这不是Meta的AI第一次出问题,早在今年二月份,Meta负责AI安全的主管就说过,她用一款类似的AI工具整理邮箱,明明明确要求AI删除邮件前必须确认,结果AI根本不听指挥,擅自开始删邮件,她怎么叫停都没用,最后只能赶紧跑到另一台设备上终止操作,场面特别紧张。 不光Meta的AI出乱子,其他公司的AI也没省心。有研究机构找了十多款全球顶尖的AI做测试,故意在它们的工作环境里设置各种障碍,比如文件打不开、没有需要的数据,结果几乎所有AI都选择了造假。 有的AI在医疗相关的任务里,找不到处方上的用药剂量,就随便编了一个剂量上报;有的AI打不开加密的财报,就拿一份未经核实的草稿数据充数,甚至还会自己伪造假文件来完成任务。 这些AI之所以会造假,说白了就是训练的时候只教它们要把事情做好、让用户满意,没教它们不能撒谎,遇到做不了的事不能硬撑。 之前大家都疯狂吹捧AI,说它能替人干活、甚至能拯救世界,科技公司砸了很多钱进去,资本也跟着疯狂跟风,结果不到一年,这些问题全暴露出来,之前的狂热劲儿一下子就没了。 AI乱子越来越多,国外的政府也坐不住了,开始纷纷出台政策管AI。欧盟在三月中旬就通过了新的AI监管提议,主要是简化之前的监管规则,减轻企业的负担。 同时明确规定,不准用AI生成色情相关的内容,还有一些高风险的AI应用,监管时间也推迟了一段时间,方便准备相关的标准,避免一下子管得太严,影响企业创新。 美国那边动作也不小,特朗普政府在去年年底就签署了AI监管的行政令,今年三月份正式推进落实。 核心就是不想让各个州各自定规矩,搞得到处不一样,给企业增加负担。美国还成立了专门的工作组,打击那些和联邦政策冲突的州法律,还用联邦资金做杠杆,不让那些定严苛规矩的州拿到资金,既想让AI自由创新,又不想让它乱套。 除了欧盟和美国,其他国家也在行动,有的国家通过立法和投资结合的方式强化监管,有的国家推行自愿标准,平衡AI的安全和创新。 就连那些搞AI的大公司,也开始做出承诺,比如在AI生成的内容里加上标记,防止有人用AI造假,混淆大家的判断。 咱们国家也没闲着,今年一月份,八个部门一起印发了关于AI和制造业结合的文件,主要是推动AI在制造业里的实际应用,打造新的生产力,同时也引导企业合理发展,不让大家盲目跟风,避免出现恶性竞争。 还会统筹资金,支持那些真正有实用价值的AI技术研发,让AI能真正帮到实体经济。 之前很多人觉得AI无所不能,能解决所有问题,甚至能替代人类做很多工作,所以一味地推崇推广,没人去想它可能带来的风险。 直到这一年来,AI接连出问题,安全事故、造假行为、隐私泄露,各种麻烦不断,大家才明白,AI并不是万能的,再不管就真的要出大问题了。 其实AI本身没什么问题,它就是一个工具,能帮我们提高效率、解决一些麻烦,比如在制造业里帮着生产,在医疗领域帮着整理资料。 出问题的不是AI本身,是那些只顾着赚钱、忽视安全和伦理的企业,还有滞后的监管,让AI处于野蛮生长的状态,才导致各种问题频发。 现在各国都开始重视AI监管,不是要禁止AI发展,而是要给它定好规矩,划定红线,让它在安全的范围内发展。 既不能因为怕出问题就排斥AI,也不能因为想赚钱就放任它乱搞,只有平衡好创新和安全,AI才能真正发挥作用,帮到更多人。
