-
HK-O1aw – HKGAI团队联合北大团队推出的慢思考范式法律推理大模型
HK-O1aw项目简介 HK-O1aw是香港生成式AI研发中心(HKGAI)旗下AI for Reasoning团队(HKAIR)与北京大学对齐团队(PKU-Alignment Team)合作推出的全球首个慢思考范式法律推理大模型。HK-O1aw在合同法、消费者权益保护法等多个法律领域表现出色,能深入分析复杂法律文本和案例,提供逻辑严密的法律意见。模型采用O1风格数据集和训练,侧重慢思考和链式推理…- 0
- 0
-
Migician – 北交大联合清华、华中科大推出的多模态视觉定位模型
Migician项目简介 Migician是北京交通大学、华中科技大学和清华大学的研究团队联合推出的多模态大语言模型(MLLM),专门用在自由形式的多图像定位(Multi-Image Grounding, MIG)任务,设计了大规模训练数据集MGrounding-630k。根据自由形式的查询(如文本描述、图像或两者的组合)在多幅图像中识别精确定位相关的视觉区域。Migician基于大规模的指令调优…- 0
- 0
-
Megrez-3B-Omni – 无问芯穹开源的端侧全模态理解模型
Megrez-3B-Omni项目简介 Megrez-3B-Omni是无问芯穹推出的全球首个端侧全模态理解开源模型,能处理图像、音频和文本三种模态数据。Megrez-3B-Omni在多个主流测试集上展现出超越34B模型的性能,推理速度领先同精度模型达300%。Megrez-3B-Omni支持中文和英文语音输入,能处理复杂多轮对话,响应图片或文字的语音提问,实现模态间的自由切换,提供直观自然的交互体验…- 0
- 0
-
TRELLIS – 微软联合清华和中科大推出的高质量 3D 生成模型
TRELLIS项目简介 TRELLIS是清华大学、中国科学技术大学和微软研究院推出的3D生成模型,基于Structured LATent(SLAT)表示法,从文本或图像提示中生成高质量、多样化的3D资产。模型融合稀疏的3D网格结构和从多视角提取的密集视觉特征,全面捕捉3D资产的几何和外观信息。TRELLIS用修正流变换器作为其核心,处理SLAT的稀疏性,在大规模3D资产数据集上训练,参数高达20亿…- 0
- 0
-
Goedel-Prover – 自动化数学问题的形式证明生成开源推理模型
Goedel-Prover项目简介 Goedel-Prover(哥德尔证明器)是普林斯顿大学、清华大学、清华大学等机构推出的开源大型语言模型(LLM),用在自动化数学问题的形式证明生成。基于将自然语言数学问题翻译成形式语言(如Lean 4)生成形式化证明,解决形式化数学陈述和证明稀缺的问题。Goedel-Prover用专家迭代方法训练,基于不断扩展形式证明数据集,逐步提升证明能力。在多个基准测试中…- 0
- 0
-
AnimeGamer – 腾讯联合香港城市大学推出的动漫生活模拟系统
AnimeGamer项目简介 AnimeGamer 是腾讯 PCG 和香港城市大学共同推出的无限动漫生活模拟系统。基于多模态大语言模型(MLLM),支持玩家基于开放式的语言指令,用动漫角色的身份沉浸于动态游戏世界中。玩家能操控如《悬崖上的金鱼姬》中的宗介等角色,与游戏世界互动。游戏支持生成具有上下文一致性的动态动画镜头(视频)及角色状态(如体力、社交和娱乐值)的更新。相比传统方法,AnimeGam…- 0
- 0
-
Seed-Coder – 字节跳动开源的代码模型系列
Seed-Coder项目简介 Seed-Coder是字节跳动开源的8B规模代码模型系列,提升代码生成与理解能力。包含Base、Instruct和Reasoning三个版本,分别适用于代码补全、指令遵循和复杂推理任务。模型采用“模型中心”数据处理方式,通过自身生成和筛选高质量数据,减少人工预处理工作量。上下文长度达32K,性能在同等规模开源模型中领先。Seed-Coder使用宽松的MIT开源协议,代…- 1
- 0
-
LHM – 阿里通义开源的单图生成可动画3D人体模型
LHM项目简介 LHM(Large Animatable Human Reconstruction Model)是阿里巴巴通义实验室推出的从单张图像重建可动画化3D人体模型。基于多模态Transformer架构,融合3D几何特征和2D图像特征,用注意力机制保留服装几何与纹理细节,推出头部特征金字塔编码方案增强面部细节恢复能力。LHM用3D高斯点云(Gaussian Splatting)形式表示重建…- 0
- 0
-
DeepSeek-V2.5-1210 – DeepSeek V2.5 的最终版微调模型,支持联网搜索
DeepSeek-V2.5-1210项目简介 DeepSeek-V2.5-1210是 DeepSeek 推出的 DeepSeek V2 系列收官AI模型,DeepSeek V2.5 的最终版微调模型。模型基于Post-Training迭代,在数学、编程、写作和角色扮演等方面实现能力提升(DeepSeek-V2.5-1210 在数学任务的完成率提升至82.8%,在实时编码得分提高至34.38%)。D…- 2
- 0
-
SlideChat – 上海AI Lab联合多所高校和机构推出的视觉语言助手
SlideChat项目简介 SlideChat是上海AI实验室、厦门大学、华东师范大学等机构推出的,首个能理解千兆像素级别全切片图像的视觉语言助手。SlideChat能生成详尽的全切片图像描述,针对多样化的病理场景提供具有上下文关联的复杂指令响应。基于训练,SlideChat在多个临床任务中展现出卓越的性能,包括显微镜检查、诊断等。SlideChat用大规模的多模态指令数据集SlideInstru…- 0
- 0
-
SmolVLM – Hugging Face推出的轻量级视觉语言模型
SmolVLM项目简介 SmolVLM是Hugging Face推出的轻量级视觉语言模型,专为设备端推理设计。以20亿参数量,实现了高效内存占用和快速处理速度。SmolVLM提供了三个版本以满足不同需求:SmolVLM-Base:适用于下游任务的微调。SmolVLM-Synthetic:基于合成数据进行微调。SmolVLM-Instruct:指令微调版本,可直接应用于交互式应用中。模型借鉴Idef…- 0
- 0
-
NotaGen – 中央音乐学院联合北航、清华等推出的音乐生成模型
NotaGen项目简介 NotaGen 是中央音乐学院、北京航空航天大学、清华大学等机构推出的音乐生成模型,基于模仿大型语言模型(LLM)的训练范式生成高质量的古典乐谱。NotaGen 基于预训练、微调和强化学习相结合的方法,预训练阶段用超过160万首乐曲,微调阶段基于约9000首高质量古典作品,基于“时期-作曲家-乐器”提示进行条件生成。在强化学习阶段,NotaGen 引入 CLaMP-DPO …- 0
- 0
-
Qwen2.5-Omni-3B – 阿里 Qwen 团队推出的轻量级多模态 AI 模型
Qwen2.5-Omni-3B项目简介 Qwen2.5-Omni-3B 是阿里巴巴 Qwen 团队推出的轻量级多模态 AI 模型。是 Qwen2.5-Omni-7B 的精简版,专为消费级硬件设计,支持文本、音频、图像和视频等多种输入功能。参数量从 7B 缩减到 3B,多模态性能仍保持了 7B 模型 90% 以上,在实时文本生成和自然语音输出方面表现突出。模型在处理 25,000 token 的长上…- 0
- 0
-
DeepSite – 基于 DeepSeek 开源的 AI 前端开发工具
DeepSite项目简介 DeepSite 是基于 DeepSeek-V3 模型的在线开发工具,用户无需配置环境或安装软件,在网页上直接输入需求,快速生成游戏、应用或网页的代码,支持实时预览效果。DeepSite 支持多种任务,包括生成简单游戏(如贪吃蛇、打砖块)、特效(如烟花、代码雨)及功能型网页(如上传图片抠图、个人网站等)。DeepSite 开箱即用,为开发者和爱好者提供全新的快速开发体验。…- 0
- 0
-
StyleStudio – 文本驱动的风格迁移模型,能将参考图像的风格与文本提示内容融合
StyleStudio项目简介 StyleStudio是西湖大学AI实验室、复旦大学、南洋理工大学和香港科技大学(广州)联合推出的,文本驱动的风格迁移模型,能将参考图像的风格与文本提示的内容融合。StyleStudio基于三种策略解决风格过拟合、控制限制和文本错位问题:跨模态AdaIN机制增强风格与文本特征整合;基于风格的分类器自由引导(SCFG)支持选择性控制风格元素;及教师模型用在早期生成阶段…- 0
- 0
-
Reka Flash 3 – Reka AI 推出的开源推理模型
Reka Flash 3项目简介 Reka Flash 3 是 Reka AI 推出的开源推理模型,拥有 21 亿参数。支持多模态输入,包括文本、图像、视频和音频,可处理最多 32k 个令牌的上下文长度,适用于一般对话、编码辅助、指令跟随等场景。模型完全精度大小为 39GB(fp16),4 位量化后可压缩至 11GB,方便在设备上部署。 Reka Flash 3优势介绍 多模态输入支持:Reka …- 1
- 0
-
OpenELM – 苹果开源的高效语言模型系列
OpenELM项目简介 OpenELM是Apple苹果公司最新推出的系列高效开源的语言模型,包括OpenELM-270M、OpenELM-450M、OpenELM-1_1B和OpenELM-3B不同参数规模的版本(分为预训练版和指令微调版)。该大模型利用层间缩放策略在Transformer模型的每一层中进行参数的非均匀分配,以此提高模型的准确度和效率。该模型在公共数据集上进行了预训练,并且在多个自…- 1
- 0
-
OSUM – 西北工业大学开源的语音理解模型
OSUM项目简介 OSUM(Open Speech Understanding Model)是西北工业大学计算机学院音频、语音与语言处理研究组推出的开源语音理解模型。OSUM结合Whisper编码器和Qwen2 LLM,支持语音识别(ASR)、语音情感识别(SER)、说话者性别分类(SGC)等多种语音任务。OSUM基于“ASR+X”多任务训练策略,用模态对齐和目标任务的优化,实现高效稳定的训练。O…- 1
- 0
-
ExVideo – 阿里和华东师大推出的AI视频长度扩展调优技术
ExVideo项目简介 ExVideo是由阿里巴巴和华东师大的研究人员推出的一种视频合成模型的后调优技术,能够扩展现有视频合成模型的时间尺度,以生成更长和帧数更多的视频。该团队基于Stable Video Diffusion模型,训练了一个能够生成长达128帧连贯视频的扩展模型,同时保留了原始模型的生成能力。ExVideo通过优化3D卷积、时间注意力和位置嵌入等时间模块,使模型能够处理更长时间跨度…- 0
- 0
-
Step-Audio-TTS-3B – 高性能 TTS 模型,能生成特定情感和说唱风格的语音
Step-Audio-TTS-3B项目简介 Step-Audio-TTS-3B 是 Stepfun-AI 团队推出的高性能文本到语音(TTS)模型,具有强大的语音合成能力。基于海量合成数据训练,参数量达到30亿,能生成自然流畅、富有表现力的语音。模型支持多种语言和方言,如中文、英语、日语以及粤语、四川话等,可通过情感控制生成不同情绪的语音,如喜悦、悲伤或愤怒。Step-Audio-TTS-3B 支…- 1
- 0
-
InternVL3 – 上海 AI Lab 开源的多模态大语言模型
InternVL3项目简介 InternVL3是上海人工智能实验室开源的多模态大型语言模型(MLLM),具有卓越的多模态感知和推理能力。模型系列包括1B到78B共7个不同尺寸的版本,能同时处理文字、图片、视频等多种信息。 InternVL3采用了创新的原生多模态预训练方法,将语言和多模态学习整合到同一个预训练阶段,提升了多模态能力的同时,进一步增强了纯语言能力。模型通过混合偏好优化算法和多模态测试…- 1
- 0
-
Ovis2 – 阿里国际推出的多模态大语言系列模型
Ovis2项目简介 Ovis2 是阿里巴巴国际团队推出的新型多模态大语言模型,基于结构化嵌入对齐解决视觉与文本模态间的差异。Ovis2继承、优化了 Ovis 系列架构,强化小规模模型的能力密度,基于指令微调和偏好学习显著提升了思维链(CoT)推理能力。Ovis2 引入视频和多图像处理能力,增强多语言支持和复杂场景下的 OCR 能力。Ovis2 系列包含1B、2B、4B、8B、16B 和 34B 六…- 0
- 0
-
YAYI-Ultra – 中科闻歌推出的混合专家模型
YAYI-Ultra项目简介 YAYI-Ultra (雅意)是中科闻歌研发的企业级大语言模型的旗舰版本,具备强大的多领域专业能力和多模态内容生成能力。支持数学、代码、金融、舆情、中医、安全等多个领域的专家组合,能缓解垂直领域迁移中的“跷跷板”现象。YAYI-Ultra 支持最长128k的输入和更长的上下文窗口,具备1000万+图文数据对齐的多模态能力。支持多轮对话角色扮演、内容安全风控以及10+智…- 1
- 0
-
LongWriter – 清华联合智谱AI推出的长文本生成模型
LongWriter项目简介 LongWriter 是清华大学联合智谱AI推出的长文本生成模型,能生成超10,000字的连贯文本,项目已开源。通过分析现有大型语言模型的输出限制,创建了”LongWriter-6k”数据集,成功扩展了AI模型的输出能力。LongWriter 还采用了直接偏好优化(DPO)技术来提高模型的输出质量和遵循指令中长度限制的能力。 LongWriter优势介绍 超长文本生成…- 1
- 0