Command Palette
Search for a command to run...
Wiki
Machine Learning Glossary: Explore definitions and explanations of key AI and ML concepts
通过共享卷积特征将 RPN 和 Fast R-CNN 合并为一个网络,用于目标检测。
CSA 旨在构建不仅安全,而且真正有帮助的系统。
CaT 可以在测试时用于推理时提升,或在内置于 RL(CaT-RL)中以提高策略。
MCP 用于连接 AI 助手到存储数据的地方,包括内容库、业务工具和开发环境。
MetaFold 能够处理多种衣物和广泛的语言指令,高效完成各种衣物折叠任务。
ST-Raptor 在答案准确率上比九个基线模型高出最多 20% 。
SubLlME 旨在通过排名相关性预测,在无需全量评测的情况下,实现 高效、准确的模型性能评估。
BSC-Nav 从自中心轨迹和上下文线索构建 allocentric 认知地图,并动态检索与语义目标一致的空间知识。
初步实验表明,DPCL 能够分离语音并且取得较为理想的效果。
双模退火的目标是开发一个能够掌握思考模式和非思考模式两种不同响应模式的模型。
BPO 的核心原理是通过明确对比相同输入查询下思考与非思考路径的效用来学习自适应策略。
BED-LLM 有效地将序贯贝叶斯实验设计(BED)框架应用于与 LLMs 的交互信息收集问题。
与 LLaMA 模型和其他最先进基线模型相比,REFRAG 在准确性没有损失的情况下实现了显著加速。
作为一种通用且轻量级的解决方案,ATE 增强了将 VLA 模型部署到新的机器人平台和任务中的实用性。
MoC 为下一代可扩展、可控的长期视频生成模型提供了新的蓝图。
TiG 框架够使 LLM 通过直接与游戏环境交互来发展程序性理解,同时保留其固有的推理和解释能力。
LOVON 旨在将大语言模型用于分层任务规划,并结合开放词汇视觉检测模型。
MP1 能够在一次网络函数评估内直接生成动作轨迹。
Meta-rater 旨在通过学习最优权重,将专业性、可读性、推理性、干净程度四个维度与现有质量指标整合。
MaCP 旨在通过最小的参数和内存开销,在大型基础模型的微调中实现出色的性能。
上下文工程标志着 LLM 实践从「prompt 工程」走向系统「上下文工程」的范式升级。
模仿学习通过学习专家示范行为来获得策略
POET 是一种新颖的重参数化训练算法
NSA 结合算法创新与硬件优化,实现了高效的长上下文建模。
通过共享卷积特征将 RPN 和 Fast R-CNN 合并为一个网络,用于目标检测。
CSA 旨在构建不仅安全,而且真正有帮助的系统。
CaT 可以在测试时用于推理时提升,或在内置于 RL(CaT-RL)中以提高策略。
MCP 用于连接 AI 助手到存储数据的地方,包括内容库、业务工具和开发环境。
MetaFold 能够处理多种衣物和广泛的语言指令,高效完成各种衣物折叠任务。
ST-Raptor 在答案准确率上比九个基线模型高出最多 20% 。
SubLlME 旨在通过排名相关性预测,在无需全量评测的情况下,实现 高效、准确的模型性能评估。
BSC-Nav 从自中心轨迹和上下文线索构建 allocentric 认知地图,并动态检索与语义目标一致的空间知识。
初步实验表明,DPCL 能够分离语音并且取得较为理想的效果。
双模退火的目标是开发一个能够掌握思考模式和非思考模式两种不同响应模式的模型。
BPO 的核心原理是通过明确对比相同输入查询下思考与非思考路径的效用来学习自适应策略。
BED-LLM 有效地将序贯贝叶斯实验设计(BED)框架应用于与 LLMs 的交互信息收集问题。
与 LLaMA 模型和其他最先进基线模型相比,REFRAG 在准确性没有损失的情况下实现了显著加速。
作为一种通用且轻量级的解决方案,ATE 增强了将 VLA 模型部署到新的机器人平台和任务中的实用性。
MoC 为下一代可扩展、可控的长期视频生成模型提供了新的蓝图。
TiG 框架够使 LLM 通过直接与游戏环境交互来发展程序性理解,同时保留其固有的推理和解释能力。
LOVON 旨在将大语言模型用于分层任务规划,并结合开放词汇视觉检测模型。
MP1 能够在一次网络函数评估内直接生成动作轨迹。
Meta-rater 旨在通过学习最优权重,将专业性、可读性、推理性、干净程度四个维度与现有质量指标整合。
MaCP 旨在通过最小的参数和内存开销,在大型基础模型的微调中实现出色的性能。
上下文工程标志着 LLM 实践从「prompt 工程」走向系统「上下文工程」的范式升级。
模仿学习通过学习专家示范行为来获得策略
POET 是一种新颖的重参数化训练算法
NSA 结合算法创新与硬件优化,实现了高效的长上下文建模。