LoRA 事实上就是一种改进的 Adapt Tuning 方法。但 Adapt Tuning 方法存在推理延迟问题,由于增加了额外参数和额外计算量,导致微调之后的模型计算速度相较原预训练模型更慢。 Prefix Tuning。该种方法固定预训练 LM,为 LM 添加可训练,任务特定的前缀,这样就可以为 ...
Adobe Research und die Hong Kong University of Science and Technology (HKUST) haben mit TransPixar eine neue KI-Technologie ...
新智元报道  编辑:LRS【新智元导读】10个AI领域,50篇精品论文,每周看一篇,到2026就能成「AI工程」专家!别再反复看Transformer之类的古董级论文了,该更新论文清单了!现行的AI从工程技术角度可以分为十个领域:前沿大模型、基准评估 ...
现行的AI从工程技术角度可以分为十个领域:前沿大模型、基准评估、提示思维链、检索增强生成、智能体、代码生成、视觉、声音、图像/视频扩散、微调,每个领域选出5篇代表作和相关工作,看完+实践=AI全栈大神!
涵盖机器学习相关算法知识、开发工具、解决方案与应用场景。
今天分享一篇阿里的利用Agent思想做工具调用的文章,标题为《Small LLMs Are Weak Tool Learners: A Multi-LLM Agent》。其提出的多LLM代理微调框架,将工具调用拆解为三个agent(Planner、Caller、Summarizer),并结合一个二阶段的微调策略。对比单个LLM表现更为出色,性能也更为 ...