HuggingFace的工程师ArthurZucker(transfo

蚁工厂 2026-05-12 12:38:34

Hugging Face 的工程师 Arthur Zucker (transformers 库的开发者)谈了他对AI替代机器学习工程师的看法:------------------这段会有点长,但我想给和我一样焦虑的机器学习工程师们一点信心。

我们经常看到很多宣传,说某个 AI 一次性完成了这个或那个任务,说模型变得多么强大,说我们甚至不需要 review PR,可以直接发到生产环境。

虽然在某些情况下这确实可能成立,但它远不能代表我们必须面对的全部挑战。

我 4 个月前开始使用 Claude Code,很快意识到它确实改变了我们的工作方式。我可以以 10 倍速度做实验,不写代码就修复小问题,也能轻松重构代码。

但是,这些任务“只是”繁琐,并不难。我日常工作中的挑战,是把研究代码集成到 transformers 里,并符合我们的标准。这很难,因为代码之美是抽象且主观的,有点像哲学。

由于我太依赖 Claude,也太相信它生成的代码看起来很不错,我在推进 deepseekv4 集成时,没有意识到 Claude 其实并没有真正理解这个模型。

我给了它 transformers 的访问权限、原始论文、原始代码、不同的博客文章、我过去的聊天记录、为添加模型而创建的 skills、一个 B200 节点,以及大量 token,但它并没有做好。它不理解 eager attention 路径,也不理解 causal attention 的基础。甚至在实现 manifold constrained hyper connections 时也是错的。

它确实帮我减轻了探索实现和调试的负担,但它没有帮我围绕模型本身进行推理。

我不是悲观主义者。我认为我们作为软件工程师的工作从未像现在这样好。我只是想说,我们仍然有工作要做;当某件事看起来好得不像真的时,我们仍然应该稍微谨慎一点。

0 阅读:0
蚁工厂

蚁工厂

感谢大家的关注