-
Stable Diffusion-全球最强开源AI绘画模型
Stable Diffusion 完全免费开源,所有代码均在 GitHub 上公开,任何人都可以拷贝使用,只需要输入一句提示词(prompt),就能够在几秒钟内创造出令人惊叹的绘画作品。 -
蓝心大模型BlueLM
BlueLM是vivo开发的一款强大的语言理解模型,它具有丰富的场景应用能力。这个模型以其庞大的规模、先进的算法、安全性和自我进化的特点,标志着人工智能新时代的到来。BlueLM拥有70亿的模型参数量和2.6T的多语言语料,能够处理32K的大尺寸上下文,这使得它在处理复杂的语言理解任务时表现出色。 -
Vidu:生数科技发布的AI视频生成工具,可生成16秒1080P高清视频
Vidu支持文生视频、图生视频及角色一致性生成功能,语义理解精准、镜头语言丰富、动态感强,具备写实和动漫等多元风格,让视频创作释放无限可能 -
天工SkyMusic-昆仑万维推出的AI音乐生成大模型
「天工SkyMusic」是昆仑万维推出的AI音乐生成大模型,基于昆仑万维「天工3.0」超级大模型打造,是目前国内唯一公开可用的AI音乐生成大模型。具备高质量音乐制作、逼真人声合成、精准歌词控制、多元风格适应及复杂歌唱技巧学习等五大特点。该模型基于先进的Transformer技术,能够根据用户输入生成具有丰富情感表达的音乐作品,旨在推动音乐创作的创新和个性化发展。 -
Gemini-谷歌发布的多模态AI大模型
AIHub 12 月 6 日消息,谷歌宣布推出其认为规模最大、功能最强大的人工智能多模态AI模型 Gemini。意味着它可以理解、操作和结合不同类型的信息,包括文本、代码、音频、图像和视频。 -
Llama 3-Meta最新推出的新一代开源大模型
Llama 3是一款由Meta推出的大型开源人工智能语言模型,Llama-3共有80亿、700亿两个参数版本,与Llama-2相比,Llama-3使用了15T tokens的训练数据,在推理、数学、代码生成、指令跟踪等能力获得大幅度提升。 -
EMO-阿里巴巴发布的AI肖像视频生成框架
EMO是一个由阿里巴巴发布的音频驱动的肖像视频生成框架。它能够通过单一参考图像和音频输入,生成具有丰富表情和多样头部姿势的虚拟角色视频。EMO利用先进的注意力机制和去噪网络,支持多语言和多种肖像风格的动态表现,为内容创作和虚拟角色动画制作提供了新工具。 -
-
-
-
DCLM-7B:苹果最新推出的开源AI语言模型
DCLM-7B是苹果与合作伙伴一起推出的开源小型语言模型,全部开源,包括权重、训练代码和数据集。DCLM-7B性能优异,接近大型模型,采用decoder-only架构,上下文长度2048。DCLM在多个基准任务上性能出色,支持商业使用。 -
讯飞星火认知大模型
讯飞星火是科大讯飞发布的认知大模型,以中文为核心的新一代认知智能大模型,拥有跨领域的知识和语言理解能力,能够基于自然对话方式理解与执行任务。从海量数据和大规模知识中持续进化,实现从提出、规划到解决问题的全流程闭环。 -
HiDream.ai-多模态视觉大模型
HiDream.ai(智象未来)是一家主打人工智能业务的公司,由前京东副总裁、加拿大工程院外籍院士梅涛于2023年3月成立。公司的目标是围绕视觉,打造生成式多模态基础模型及应用,并让基于此生成的内容,真正进入营销、设计场景的业务流中。 -
-
-
TripoSR - 单张图片快速生成高质量3D模型
TripoSR是由Stability AI 和国内AI企业VAST合作开源的快速3D物体重建模型,能在1秒内从单张2D图像快速生成高质量的3D模型。 -
豆包大模型-字节跳动推出的系列大语言模型
豆包大模型是字节跳动自研的一系列人工智能模型,包括通用模型Pro、Lite、角色扮演模型、语音合成模型、声音复刻模型、语音识别模型、文生图模型、Function Call模型和向量化模型。这些模型支持长文本处理、个性化角色创作、语音合成与识别、声音克隆、图文创作、复杂工具调用等功能,适用于问答、创作、分类等多种场景。 -
华知大模型-同方知网携手华为推出的中华知识大模型
华知大模型是同方知网携手华为共同打造内容权威可信、全栈自主可控的专注于知识服务与科研行业的中华知识大模型,旨在覆盖政企文教等多个行业场景,并提供30多项通用能力体系。 -
阿里达摩院遥感 AI 大模型
阿里达摩院发布业内首个遥感 AI 大模型(AIE-SEG),号称“率先在遥感领域实现了图像分割的任务统一”、“一个模型实现‘万物零样本’的快速提取”,并可识别农田、水域、建筑物等近百种遥感地物分类,还能根据用户的交互式反馈自动调优识别结果。 -
Llama 3.1:Meta最新推出的开源大语言模型
Llama 3.1是Meta最新推出的开源大语言模型,有三种规格:80亿、700亿和4050亿参数,支持八种语言,具备128K扩展上下文长度。它提供卓越的通用知识、数学计算、多语言翻译和工具使用能力,开放下载并允许开发者定制和微调。 -
-
Yi大模型-零一万物发布的开源大模型
Yi系列模型是由来自“零一万物”的开发者研发的大型语言模型。第一个公开版本包含两个双语版(英语/中文)基础模型,参数规模分别为6B和34B。两者都使用4K序列长度进行训练,并在推理时可以扩展到32K。 -
-
-
-
MiracleVision-美图旗下AI视觉大模型
MiracleVision视觉大模型具有强大的视觉表现力和创作力,并从绘画、设计、影视、摄影、游戏、3D、动漫等视觉创作场景反推技术演化,擅长亚洲人像摄影、国风国潮、商业设计等生成方向。 -
MuseV-腾讯天琴实验室开源的虚拟人视频生成框架
MuseV专注于生成高质量的虚拟人视频和口型同步。它利用先进的算法,能够制作出具有高度一致性和自然表情的长视频内容。MuseV支持自定义动作和风格,视频时长理论上无限,且生成速度快。 -
讯飞星火语音大模型
讯飞星火认知大模型是科大讯飞推出的AI大语言模型,专注于提供高精度的语音识别和超拟人化的语音合成服务。它支持多种语言和方言,具备自动语种判断和智能标点功能,能够实现流畅的语音转文字和自然口语的语音输出。该模型适用于语音搜索、聊天输入、游戏娱乐、人机交互、智能客服等多个场景,为企业和开发者提供了强大的语音交互解决方案。 -
Qwen2-阿里云最新发布的通义千问开源大模型
Qwen2是阿里云通义千问团队开源的新一代大语言模型,推出了5个尺寸的预训练和指令微调模型,在中文英语的基础上,训练数据中增加了27种语言相关的高质量数据;代码和数学能力显著提升;增大了上下文长度支持,最高达到128K tokens(Qwen2-72B-Instruct)。多个评测基准上的领先表现。现已在Hugging Face和ModelScope开源。 -
CodeShell-北京大学开源的代码大模型
CodeShell是北京大学知识计算实验室联合四川天府银行AI团队研发的多语言代码大模型基座。CodeShell具有70亿参数,在五千亿Tokens进行了训练,上下文窗口长度为8192。在权威的代码评估Benchmark(HumanEval与MBPP)上,CodeShell取得同等规模最好的性能。 -
Grok-1:马斯克xAI发布的开源AI大模型,可商用
Grok-1是Elon Musk旗下AI公司xAI发布的开源AI大模型,具有3140 亿个参数,由 8 专家组成(2 活跃状态)86B 活跃参数,使用Rotary Embeddings。 -
Veo - Google推出的视频模型,可生成1分钟1080p视频
Veo 是 Google DeepMind 开发的先进视频生成模型,能够生成1080p高分辨率、长时长的高质量视频。它支持广泛的电影和视觉风格,准确捕捉提示的细微差别,并提供创意控制。 -
-
AndesGPT-OPPO旗下AI大模型
OPPO AndesGPT是OPPO公司自主开发的生成式大语言模型。它是一种人工智能技术,专门用于提升语音助手的性能。AndesGPT模型在SuperCLUE测评基准的排行榜上表现出色,特别是在“知识与百科”能力测试中,得分高达98.33,仅次于GPT4,排名国内第一。 -
-
Monkey:华中科技大学开源的多模态大模型
Monkey 是华中科技大学与金山软件联合推出的一种高性能多模态大模型,通过提高输入分辨率和引入多级描述生成方法,解决了现有模型在复杂场景和视觉细节处理方面的挑战。Monkey 可以基于现有视觉编辑器进行构建,无需从0预训练,大大提高了研发效率。 -
昆仑万维-天工AI大模型
天工作为一款大型语言模型,拥有强大的自然语言处理和智能交互能力,能够实现智能问答、聊天互动、文本生成等多种应用场景,并且具有丰富的知识储备,涵盖科学、技术、文化、艺术、历史等领域。 -
GPT-4o:OpenAI最新发布的多模态AI大模型,可实时推理音频、视觉和文本
GPT-4o是OpenAI推出的最新一代大型语言模型,它集合了文本、图片、视频、语音的全能模型,能够实时响应用户需求,并通过语音进行实时回答。GPT-4o具有强大的逻辑推理能力,其速度是前代模型GPT-4 Turbo的两倍,而成本降低了50%。 -
-
Step-1V:阶跃星辰推出的千亿参数多模态大模型
Step-1V是阶跃星辰研发的一款千亿参数的多模态大模型。这个模型在多个领域表现出色,特别是在图像理解、多轮指令跟随、数学能力、逻辑推理和文本创作等方面。