5月14日,智东西报道,于5月13日举办的火山引擎AI创新巡展上海站活动中,火山引擎展示了大模型的全景图,并推出了豆包·视频生成模型Seedance 1.0 lite、豆包1.5·视觉深度思考模型,同时对豆包·音乐模型进行了升级。Data Agent正式面世,我国首发的AI原生集成开发环境产品Trae,已融入豆包深度思考模型,并对多项核心功能进行了升级。
截至目前,火山方舟已涉猎包括语言处理、深度思维、视觉识别、视觉分析、语音识别以及图形用户界面代理等多个领域的多种模型。
张鑫,火山引擎的副总裁,在会议中发表观点,指出模型、算力、数据以及安全是人工智能时代的新型基础设施的核心组成部分。此外,火山引擎亦对外全面提供这四个关键要素。
在模型领域,豆包的大规模模型已应用于超过50个内部实际场景,并与30多家行业外的企业共同开发,截至4月份,其日均token调用量已突破12.7万亿。
在算力层面,火山引擎AI云原生平台展现了卓越的系统承载能力,这涵盖了丰富的计算资源、高效的推理层优化以及出色的系统调度能力。
在数据层面,数据飞轮2.0与Data Agent的应用,使得用户得以依托于动态的多模态数据湖,通过智能手段重新构建数据间的关联。
在安全保障方面,该大模型的安全策略依托PCC私密云计算平台,有效应对端云协同计算中可能的数据泄露风险,同时借助大模型防火墙技术,彻底消除潜在的攻击威胁。
一、视频生成模型:效果好、生成快、更便宜
新推出的豆包视频生成软件Seedance 1.0 lite具备功能,能够实现文本到视频以及图像到视频的转换,其视频生成时长可选5秒或10秒,并且提供了480P和720P两种分辨率选项。
企业用户能够于火山方舟平台上调用该模型API,而个人用户则可以在豆包App以及即梦体验中享受到这一服务。
Seedance 1.0 lite模型,作为豆包视频生成模型家族中参数量较小的成员,成功实现了两项重大突破:其一,视频生成质量达到了影视级别;其二,视频生成的速度显著提高。此外,该模型在保证效果的同时,兼顾了速度和性价比。
遵循更精确的指令,依托于强大的语义理解能力,能够实现对人物外貌、气质、着装风格以及表情动作等方面的细致调控;同时,在多主体动作分析、嵌入型文本反馈、程度副词运用以及镜头转换响应等方面展现出显著优势。
拥有更加多样化的影视级拍摄技巧:能够实现全方位360度旋转拍摄、空中俯瞰、镜头伸缩、水平移动、自动跟踪以及手持拍摄等多种拍摄方式,同时保证了画面细腻、高清的基础质量,并呈现出电影级别的视觉美感。
更合理的运动交互设计,通过分析动作的时序和空间关系,能够增强人物与物体之间自然流畅的交互动作体验,使得运动轨迹和受力反馈更加贴近现实世界的物理规律。
Seedance 1.0 lite模型在多个领域均有广泛应用,诸如电商广告、娱乐特效、影视制作以及动态壁纸等。以电商为例,该模型能助力商家迅速制作出高水准的营销视频素材,精确对接产品展示、活动推广等环节,从而有效减少制作成本和时间。
二、豆包1.5视觉深度思考模型,在60项评测中脱颖而出,荣获了其中的38项冠军。
新推出的豆包1.5·视觉深度思考模型(Doubao-1.5-thinking-vision-pro)参数量仅为20B,却展现了卓越的多模态理解和推理功能。在60项公开评测基准中,该模型在38项上达到了SOTA水平。无论是在视频理解、视觉推理还是GUI Agent能力方面,它都位居行业前列。目前,这一模型已经成功部署在火山方舟平台上。
在视频解析领域,豆包1.5版本的视觉深度思考模型具备动态帧率采样的功能,这显著提升了视频序列的定位能力;同时,借助向量搜索技术,能够精确地找到与文本描述相匹配的视频片段。
该模型不仅增强了视频深度思考功能,还吸收了数万亿种多模态标记数据,丰富了视觉知识库。通过强化学习技术的融合,其视觉推理能力得到了显著增强。比如,在处理复杂的图形推理问题时,模型能够提出假设并进行验证,一旦发现实际情况与假设不符,它还能持续反思,不断提出新的假设,直至找到正确答案。
豆包1.5视觉深度思考模型引入了GUI Agent功能,凭借其卓越的GUI定位能力,能够在个人电脑、手机等多种平台上执行复杂的交互操作,比如对新兴App的功能进行自动化测试。目前,这一功能已被字节跳动旗下多款App在开发与测试阶段所采用。
去年,火山引擎发布了豆包·音乐模型。借助这一模型,用户只需提供一张图片或一句描述,便能够生成多达十种风格的高品质音乐。在本届大会上,豆包·音乐模型实现了升级,不仅拓展了英文歌曲的创作功能,还能解析视频内容,实现纯音乐背景音乐的自动匹配。
豆包音乐模型现已全面开放,个人及企业用户均可前往海绵音乐平台或火山引擎官方网站进行体验。
火山方舟平台无需登录,提供优惠的推理服务,仅需3分钟便可完成DeepSeek满血版的部署工作。
火山引擎旗下的火山方舟一站式大模型服务平台,涵盖了语言、视觉、语音等模型的精细调整、推理、评估等多元化功能与服务。依托于其丰富的插件生态系统以及安全可靠的技术方案,火山方舟助力企业及开发者轻松实现人工智能应用的落地。
开发者无需登录即可快速感受模型功能。针对需要持续使用的实名认证用户,火山方舟优化了模型接入流程,省去了繁琐的多页面操作,仅需两分钟便可轻松接入模型。在安心推理体验环境中,火山方舟不会擅自消耗用户的付费资源,且允许用户根据模型需求分配相应的tokens。
火山方舟公司推出了两种离线批量推理的方案。首先,它能够从存储系统中批量提取数据,进而执行离线推理任务;其次,它还提供了类似在线聊天的模型接口,可以精确控制针对批量请求的动态负载;这样的操作仅需几分钟,即可完成开发与适配工作。
火山方舟为每位用户每日提供至少100亿个token的推理额度,并且价格更为优惠。相较于在线推理,批量推理的费用减少了50%;若采用前缀缓存,命中率高的部分价格还能进一步降低40%;此外,存储费用全免。
火山方舟所提供的服务包括超低延迟的小时级推理保障方案。用户可以根据自身业务的实际流量曲线来精确配置所需资源,这样在业务低谷期无需支付费用,有助于降低成本。以Deepseek-R1为例,其推理保障包能够保证每token的延迟稳定在20毫秒,而豆包1.5 Pro的推理保障包则能将推理延迟进一步降至15毫秒。
卓越的性能源于强大的计算能力、深入的科技优化以及高效的系统调度三者相乘。火山方舟凭借丰富的资源储备和领先的系统工程技术,确保了高密度的计算能力供应以及极致的服务质量。在多轮测评中,火山方舟的Deepseek-R1服务始终展现出最短的响应时间。
火山方舟之所以能够取得这样的成就,主要归功于其在算子层、框架层和调度层所进行的长期深度优化:通过实施Prefill Decode的分离式部署(也就是PD分离)、实现存储与计算的分离、对kernel进行优化、以及实现秒速扩容等技术,成功地在异构硬件的协同优化和通信成本中达到了性能的极致,从而确保了方舟推理的既快速又稳定。
面向有模型定制、部署和推理需求的企业客户,火山引擎机器学习平台提供使用。该平台与方舟共享的大模型推理引擎一致,并且拥有业界领先的生产级PD分离和分布式KV Cache功能。
火山方舟的机器学习平台实现了对传统部署流程的革新,它采用了预装模型与镜像以及PD的独立部署策略,只需短短1至3分钟,即可轻松启动预置模型服务,并迅速完成DeepSeek推理集群的部署。
依托高效文本分析工具xLLM和系统性能的优化,该机器学习系统成功将TPOT(吐字间隔)缩短至20毫秒。在配备两台搭载8张H20显卡的设备上,xLLM在DeepSeek-R1 671B模型上的推理能力相较于开源的SGLang方案,实现了吞吐量(每秒处理的token数量)的4.5倍增长,并且每个token的处理延迟减少了三分之二。
依托自主研发的DiT推理框架veFuser,该平台能够在短短15秒内制作出时长5秒、分辨率为480P的视频内容;与行业内的普遍水平相比,其推理速度实现了高达4.5倍的提升。
火山方舟所提供的是涵盖整个周期的安全保障措施,它通过实现链路全面加密、数据高度保密、环境严格隔离以及操作可追溯等四个主要安全模块,从而确保用户会话不留痕迹。
火山方舟应用实验室向客户与开发者全面供应定制化解决方案及源代码:针对应用插件、多模态交互、终端设备等多样化场景,推出了逾20款开源应用;针对具备专业开发技能的企业开发者,提供了大模型应用开发所需的一系列工具和流程,助力他们高效开发并定制适配特定业务场景的大模型相关应用;同时,实验室还支持超过60款大模型产品,使用户能够便捷地将方舟大模型嵌入主流软件中。
火山方舟应用实验室广场上陈列着众多引人入胜的应用,诸如协助网店进行运营的智能导购系统、与豆包模型及DeepSeek技术紧密合作的长期记忆解决方案、融合多模态交互与硬件功能的实时对话AI设备,以及为教师提供标准化解题流程的虚拟助手等。

四、数据代理助力企业深挖数据资源,Trae新版本融入豆包的深度思维模型。
火山引擎推出的Data Agent是一款面向企业级的数据全场景智能体。它相当于一位AI数字领域的专家,拥有自主思考、敏锐洞察、精准分析和果断行动的能力。Data Agent能够深入挖掘企业数据资产的价值,其功能涵盖了数据分析、智能营销等多个关键领域。
在数据分析领域,Data Agent具备整合企业内部结构化及非结构化数据的能力,并融合网络知识资源,能够精确把握业务需求,进而迅速编制出专业且深入的报告。
Data Agent通过自动化构建分析计划、追踪数据指标的变化、运用自助式分析软件以及构建预警机制,实现了数据处理全流程的智能化。这一功能不仅大幅降低了复杂报表生成所需的时间,从原先的2天缩短至仅30分钟,而且显著提高了数据获取和决策的效率。
在智能营销这一领域,Data Agent系统实现了从策略制定到执行优化的全方位闭环管理,它能够高效地进行目标人群的筛选以及策略的细致拆解,并且依托于个性化的引擎技术,实现了精准的营销效果。
此外,该系统的智能对话助手和自动总结优化功能,能够持续提高转换率和客户满意度,并实时更新营销策略。
构建一个智商卓越的智能系统,并非一蹴而就的固定成果,而是涉及数据、模型、工程与业务之间的动态结合,并不断更新的演进过程。因此,对智能体实施全生命周期的管理显得尤为重要。HiAgent推出的Agent Devops体系,实现了从开发、运营优化直至用户使用的完整流程的衔接。
借助统一的AI交流通道,企业员工得以更高效地运用多样化的智能服务。例如,企业中的管理人员能够登录HiAgent平台,挑选出计划投放的智能助手。智能助手一旦发布,员工便能够根据各自的具体需求和目的,激活并运用各种类型的助手,诸如任务管理助手、出差协助助手、费用报销助手以及会议支持助手等。员工越来越多地运用智能体,企业得以搜集到更多数据,同时用户的行为倾向也日益丰富,这使得人工智能对企业的理解越发深入,使用起来也日渐灵巧。
最新推出的Agent Devops已全面兼容MCP协议,增强了系统的开放性。同时,它还整合了火山引擎的安全防火墙,显著提升了安全防护水平。值得一提的是,火山引擎依托自身及客户和合作伙伴积累的知识和实践,构建了一套HiAgent应用示范,旨在助力客户迅速构建符合业务需求的智能体。
为了便于开发者更高效地运用人工智能技术,我国推出的首款AI原生集成开发环境产品Trae进行了多项核心功能的更新,其中包括集成的AI交流界面(所有交流操作仅需一个对话框)、允许用户自定义@Agent以打造个性化AI团队、引入了联网搜索功能,包括对#Web和#Doc的上下文理解支持(使AI执行任务更为精确高效),以及通过MCP技术实现AI主动调用外部工具等。
目前,Trae已经部署了名为Doubao-1.5-thinking-pro的深度思考模型,该模型具备1.5的版本号。它依托于模型自身所进行的深度思考能力,并实现了20毫秒的极低延迟。这些特点使得生成的代码在质量上更为优良,同时在效率上也得到了显著提升。
Trae团队对未来的发展趋势进行了预测,指出将出现两大趋势。首先,在复杂度方面,随着模型能力的提升,AI编程将从生成较低复杂度的代码片段,逐步发展到生成更高复杂度的软件和项目。其次,在交互逻辑方面,AI编程将从原先在集成开发环境等工具中嵌入AI的方式,逐步过渡到利用AI操作各种工具,以满足软件开发的多样化需求。
随后,Trae将逐步解锁智能体的部分核心功能,助力开发者实现更深入的自定义,打造专属的智能体。同时,还将推出更优化的用户与人工智能协同工作模式,旨在激发人类的创造力,并充分发挥人工智能的生产潜力。
五、豆包大模型产业落地加速,为游戏、医药行业拓界增效
豆包大模型在众多领域实现了广泛应用,涉及汽车、智能终端、互联网、金融、教育科研以及零售消费等行业。它服务着覆盖4亿终端设备的庞大用户群体,囊括了八成主流车企,以及70%的系统重要性银行。此外,它还与数十家证券基金公司、近七成的C9顶级高校和超过100家科研院所建立了合作关系。
在游戏领域,巨人网络正利用大型模型技术对游戏体验进行革新,并推动玩法创新的发展。巨人网络在今年3月,依托火山方舟平台,将豆包大模型和DeepSeek技术融入旗下《太空杀》游戏中,创新性地引入了Al原生游戏玩法“内鬼挑战”。这一玩法借助火山方舟的DeepSeek-R1和豆包大模型的深度思考能力,成功打造了AI玩家,使其能与真人玩家展开实时策略对抗,从而刷新了社交推理游戏在智能领域的边界。
《原始征途》不仅融入了强大的大模型技术,塑造了AI智能NPC“小师妹”,还在游戏策略辅导和情感陪伴方面给予了玩家更为智能和人性化的互动体验,这一举措极大地增强了玩家的忠诚度。
除此之外,依靠火山引擎机器学习平台所提供的大型模型训练和资源支持,巨人网络还在不断推进自主研发的视频内容生成大型模型以及游戏音效生成大型模型的更新和改进。
在医疗领域,礼来制药成功构建了一个定制的AI应用开发平台,该平台全面支持从药品研发到疾病治疗的各个环节,助力创新发展的全方位实现。
通过可视化的操作,礼来制药成功构建了HCP Chatbot、地区经理辅导报告等智能助手,这些智能体在学术交流、销售培训、疾病知识普及等多个领域得到应用,从而实现了企业AI资源的积累和不断优化运营。
六、这款涵盖全流程、全应用场景的AI云原生推理套件,助力企业加快人工智能的转型与升级步伐。
DeepSeek的受欢迎程度不断攀升,火山引擎MaaS的流量也随之实现了显著增长。目前,火山引擎MaaS提供的服务涵盖了Deepseek和豆包大模型,这些服务能够支撑每日高峰时段千卡量级的GPU弹性需求,初始TPM(每分钟token数)高达500万,RPM(每分钟请求数)超过3万,日均Tokens使用量更是达到了12.7万亿。
火山引擎AI云原生推理套件相关产品为这些能力提供了支持。
在第三方测评排行榜中,火山引擎的DeepSeek服务在首token性能、推理速度以及生成速度等方面均取得了最佳成绩。当在相同硬件资源下运行DeepSeek-R1的满血版本时,与开源的SGLang相比,其TPS吞吐量能够提升至原来的5倍,同时GPU的使用成本也降低了80%。
火山引擎为各类模型提供了丰富多样的接入与使用途径,涵盖了方舟MaaS平台、机器学习平台以及AI云原生推理套件等多种服务。
ServingKit是一款面向大型模型推理的AI云原生套件,它助力企业实现模型部署、推理以及运维等全流程的效率提升。
在部署过程中,通过镜像下载与加载的加速服务,我们能够迅速启动业务并推动业务增长。 Onion镜像权重加速引擎实现了DeepSeek-R1完整版模型的快速下载,仅需109秒;缓存预热仅需40秒;权重加载仅需13秒。
在推理环节,我们借助GPU算子加速器、APIG AI网关、VKE编排调度以及KVCache缓存服务的功能升级,对推理性能进行了优化。经过算子优化,R1满血版的TPS实现了2.4倍的提升;智能路由的TTFT时间减少了60%;在处理长文本的推理场景中,KVCache的命中率相较于GPU Local提高了10倍。
在运维环节,观测平台APM与VMP均完成了全面升级,能够实现推理业务的无侵入式透明数据采集,并且从资源层面直至推理业务层面,实现了全方位、全场景的观测指标覆盖。
火山引擎携手英特尔,采用“云实例与镜像结合”的模式,为大众提供便捷、高效的大模型开发平台,同时不断优化大模型部署流程,有效减少算力消耗。
结语:从模型矩阵到智能体工具,推动AI应用落地普及
张鑫,火山引擎的副总裁,在其分享中指出,企业在AI技术的实际应用过程中,需要顺利完成业务价值挖掘、模型基础设施构建以及智能体应用的三个关键阶段。业务价值的实现可分为不同阶段逐步推进,起初需形成战略上的共同认识(从负一至零),接着挑选那些技术成熟度较高、数据准备充分且业务价值显著的场景进行验证(从零至一),在此阶段,逐步建立起自身的AI能力中心并积累企业知识库,为后续的规模扩张和复制(从一到N)、价值重塑(从N到无穷大)奠定坚实基础。
在整个旅途中,企业需打造的核心竞争力,源自于将人工智能技术融入至极致的产品体验设计,积累企业特有的领域知识库以及专业模型,并构建面向人工智能的人才团队与企业文化。
技术落地的流程并非仅限于引入一个大型模型,它实际上涵盖了众多不同层面,包括挑选合适的模型、对效果进行评估、进行数据与知识工程处理、准备计算资源、构建开发平台、实现模型与系统的对接、再次评估效果、构建模型基础设施、深化数据与知识工程、确保算力充足、搭建开发平台、模型接入、进行效果优化、以及执行性能与安全测试等多个步骤。
火山引擎计划旨在通过提供更全面的模型矩阵和更丰富的智能体工具,助力企业实现从业务到智能体的应用链路的无缝连接,从而进一步加速人工智能技术的普及。我们期望与众多企业携手,将人工智能技术的应用从以往繁琐的手工编写“Hello World”代码的过程,转变为更加便捷的向智能体问候“Hi”的方式。
Copyright C 2018 All Rights Reserved 版权所有 聚贤人力 皖ICP备20008326号-40
地址:安徽省合肥市高新技术开发区人力资源产业园 EMAIL:qlwl@foxmail.com
Powered by PHPYun.