Next of My Ascend Career
导言
作为卖NPU AI加速卡的软件员工, 目标是将昇腾的底层算力与上层多模态应用需求精准对接,释放昇腾AI算力,让客户看到NPU的性能、性价比、易用性、客户自身业务的使用需求。
导言
作为卖NPU AI加速卡的软件员工, 目标是将昇腾的底层算力与上层多模态应用需求精准对接,释放昇腾AI算力,让客户看到NPU的性能、性价比、易用性、客户自身业务的使用需求。
导言
在LLM对齐的早期探索中,研究者们建立了两种影响深远的基础范式。
鉴于PPO-RLHF的复杂性,研究者们开始寻求更简洁、更直接的对齐方法。直接偏好优化(Direct Preference Optimization, DPO)应运而生,它巧妙地绕过了显式的奖励建模和复杂的RL优化循环,为偏好对齐提供了一个优雅的替代方案。
这篇文章介绍DPO, 和Step-Video论文介绍了Video-DPO, 这类训练中最后通过人工标注优化的方法。
必看好文6
导言
当时我选择一线的原因是决定能最解决客户,每个工作能产生最大的价值。
通过一段时间的开发,我感觉在一线开发就像在泥潭里前进:走得越快越远,泥潭陷得越深,前进阻力越大。
困境为何而来,如何解决困境,是我想讨论的重点。
导言
在交付PTA需求的时候,发现需求在测试人员的更大的测试规模下出现了问题:
在增多了不同的测试样例,和不同的测试设备(910A,910B,310P)时;程序是否可执行,性能是否达标,精度是不是正常;都有待监控。
说明在开发过程中,我构建个人的每日测试框架,持续监控开发的测试和性能。
集成 windmill-labs / windmill。
导言
作为一个AI初学者,总是遇到以下场景:
设计期望:
大致思路:
chrome://tracing格式,来设计类似PyPrinter的工具。VizTracer代替。导言
测试人员之前有台高性能的测试机器,未知原因坏了之后,他们修好之后,发现性能损失。推测是鲲鹏920的性能损失,为此需要: