平台模型使用如何计费?
目前我们平台不开放充值接口,所以部分计费模型不进行付费开放使用。但是我们会不定期会提供免费模型(注:不定期计费模型转免费)让用户使用,免费模型每次提供的数量不少于5款。
最新提供的免费模型有:
1、GLM-4-Flash 是一款免费且好用的语言模型,最大支持 128K 上下文,最大输出 4K Tokens,适用于智能问答、摘要生成和文本数据处理等多种应用场景。
2、Hunyuan-Lite免费使用,满足绝大部分对效果、推理性能、成本控制相对平衡的需求场景。在中文 NLP、英文 NLP、代码、数学等方向显著优于同等规模开源模型。
3、ERNIE-Lite Pro 128K 百度自研的轻量级大语言模型,上下文支持128K,兼顾优异的模型效果与推理性能,适合低算力AI加速卡推理使用。
4、Qwq-32b Preview 阿里通义千问QwQ模型是由 Qwen 团队开发的实验性研究模型,专注于增强 AI 推理能力。
5、Lite 轻量级大语言模型,具有更高的响应速度,适用于低算力推理与模型精调等定制化场景,可满足企业产品快速验证的需求。
计费模型的费用问题?
我们的计费方式是以 token 为单位(图像大模型按照模型产出的图片数量计费),每个 token 代表一个自然语言文本的基本单位,如“字”或“词”。
我们会根据您的模型输入和输出的总 token 数进行计费(向量大模型embedding-2仅按照输入token量计费)。
我们的扣减方式:费用扣减。费用扣减是根据 token 使用量×模型单价从您的现金余额账户中扣除。(注:不开放付费)
支持的模型有哪些?
- GLM-4-Flash GLM-4-Flash是一款免费且好用的语言模型,最大支持 128K 上下文,最大输出 4K Tokens,适用于智能问答、摘要生成和文本数据处理等多种应用场景。
- Hunyuan-Lite 免费使用,满足绝大部分对效果、推理性能、成本控制相对平衡的需求场景。在中文 NLP、英文 NLP、代码、数学等方向显著优于同等规模开源模型。
- ERNIE-Lite Pro 128K 百度自研的轻量级大语言模型,上下文支持128K,兼顾优异的模型效果与推理性能,适合低算力AI加速卡推理使用。
- Qwq-32b Preview QwQ模型是由 Qwen 团队开发的实验性研究模型,专注于增强 AI 推理能力。
- Lite 轻量级大语言模型,具有更高的响应速度,适用于低算力推理与模型精调等定制化场景,可满足企业产品快速验证的需求。
- CodeGeeX-4 CodeGeeX-4 是一个代码生成模型,它可以根据用户的提示或需求自动生成相应的代码。由于它是一个AI模型,用户无法直接运行或复制这个名称来获取代码。相反,用户需要通过特定的接口或平台向CodeGeeX-4提出代码生成请求,并接收其返回的代码结果。
- Moonshot-V1 8k moonshot-v1模型可以用于各种任务,包括内容或代码生成、摘要、对话、创意写作等。它是一个长度为 8k 的模型,适用于生成短文本。
- Qwen-Turbo 通义千问超大规模语言模型,支持中文英文等不同语言输入。
- Pro-128k 专业级大语言模型,具有百亿级参数,在医疗、教育和代码等场景进行了专项优化,搜索场景延时更低。适用于文本、智能问答等对性能和响应速度有更高要求的业务场景。128K星火大模型强势来袭,通读全文,旁征博引,沟通无界,逻辑连贯。
- Deepseek-Coder Deepseek全面提升了模型各方面能力表现,包括数学、代码、写作、角色扮演等;同时,新版模型优化了文件上传功能,并且全新支持了联网搜索,展现出更加强大的全方位服务于各类工作生活场景的能力。
- Recraftv3 Recraftv3模型,仅支持生成图片。
- Flux Flux AI 文生图Flux模型,效果堪比 Midjourney,碾压 StableDiffusion
- Moonshot-V1 128k moonshot-v1模型可以用于各种任务,包括内容或代码生成、摘要、对话、创意写作等。它是一个长度为 128k 的模型,适用于生成超长文本。
- CharGLM-4 ChatGLM-4在角色扮演方面的表现非常出色,能够很好地模拟各种角色并进行对话。
- GLM-4 0520 高智能旗舰: 性能全面提升,长文本和复杂任务能力显著增强,适用于处理高度复杂和多样化的任务。
- Doubao-lite Doubao-lite是豆包推出的轻量级大模型,具备极致的响应速度,适用于对时延有更高要求的场景,模型配合精调使用可以获得更优质的效果。
- Midjourney 绘画 Midjourney文生图,快速模式。基于 agent 实现,可以直接Chat方式调用。
- Direct-Generate Pptx Direct-Generate Pptx 模型 AI PPT 生成,OpenAI Chat 格式,缺点不支持选择模板、调整内容。
- GLM-4 GLM-4的整体性能相比上一代大幅提升,逼近GPT-4。具体表现上,GLM-4可以支持128k的上下文窗口长度,单次提示词可以处理的文本可以达到300页。同时在多模态能力方面,文生图和多模态理解都得到了增强。
- Qwen-Plus 通义千问超大规模语言模型的增强版,支持中文英文等不同语言输入。
- Emohaa Emohaa是一个以人为本的情感大模型对话系统,以用户为中心,耐心倾听用户的想法,理解用户的感受,主动询问用户的情绪、想法、行为或意图,并做出积极的回应;该模型基于心理咨询理论训练,具备倾听、情感映射、共情等能力,可实现情绪疏导、支持和陪伴。
- Recraftv3-Halloween Recraftv3-Halloween模型,仅支持生成图片。
- ERNIE-Speed Pro 128K 百度2024年最新发布的自研高性能大语言模型,通用能力优异,效果比ERNIE Speed更优,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。
- GLM-4 FlashX 高速低价:Flash增强版本,超快推理速度。
- GLM-4 Air 高性价比:推理能力和价格之间最平衡的模型
- GLM-4 Long 超长输入:专为处理超长文本和记忆型任务设计,支持1M上下文。
- Stable-Diffusion Stable-Diffusion聊天版的 SD 绘图模型。
- GLM-4 Plus 高智能旗舰: 性能全面提升,长文本和复杂任务能力显著增强。
- doubao-pro Doubao-pro是豆包推出行业领先的专业版大模型。模型在参考问答、摘要总结、创作等广泛的应用场景上能提供优质的回答,是同时具备高质量与低成本的极具性价比模型。
- Deepseek-Chat 全面提升了模型各方面能力表现,包括数学、代码、写作、角色扮演等;同时,新版模型优化了文件上传功能,并且全新支持了联网搜索,展现出更加强大的全方位服务于各类工作生活场景的能力。
- Max-32k 基于最新版星火大模型引擎4.0 Turbo 量化而来,支持联网搜索、天气、日期等多个内置插件,核心能力全面升级,各场景应用效果普遍提升,推理更强:更强的上下文理解和逻辑推理能力,输入更长:支持32K tokens的文本输入,适用于长文档阅读、私有知识问答等场景
- Qwen-Vl Max 通义千问VL-Max(qwen-vl-max),即通义千问超大规模视觉语言模型。相比增强版,再次提升视觉推理能力和指令遵循能力,提供更高的视觉感知和认知水平。在更多复杂任务上提供最佳的性能。
- 4.0Ultra 最强大的星火大模型(星火4.0 Turbo),在文本生成、语言理解、知识问答、逻辑推理、数学能力等七大维度全面超越GPT 4-Turbo,优化联网搜索链路,提供更精准回答。
- ERNIE-3.5 8K 百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。
- GLM-4 AirX 极速推理:具有超快的推理速度和强大的推理效果,支持8k上下文。
- Hunyuan-Standard 32K多专家模型,在平衡效果、价格的同时,可对实现对长文本输入的处理
- Qwen-Vl Plus 通义千问VL-Plus(qwen-vl-plus),即通义千问大规模视觉语言模型增强版。大幅提升细节识别能力和文字识别能力。
- Doubao-vision-lite-32k Doubao-vision 模型是豆包推出的多模态大模型,具备强大的图片理解与推理能力,以及精准的指令理解能力。模型在图像文本信息抽取、基于图像的推理任务上有展现出了强大的性能,能够应用于更复杂、更广泛的视觉问答任务。
- Generalv3 专业级大语言模型,具有百亿级参数,在医疗、教育和代码等场景进行了专项优化,搜索场景延时更低。适用于文本、智能问答等对性能和响应速度有更高要求的业务场景。
- Generalv3.5 基于最新版星火大模型引擎4.0 Turbo 量化而来,支持联网搜索、天气、日期等多个内置插件,核心能力全面升级,各场景应用效果普遍提升。
- Hunyuan-Role 适用于角色扮演场景,在 IP 类角色、情感陪伴类角色设定与对话上具有更好基础效果,具有稳定的角色自我认知能力,广泛的通用 topic 聊天能力和通用的知识问答能力。
- Moonshot-V1 32k moonshot-v1模型可以用于各种任务,包括内容或代码生成、摘要、对话、创意写作等。它是一个长度为 32k 的模型,适用于生成长文本。
- Doubao-vision-pro-32k Doubao-vision 模型是豆包推出的多模态大模型,具备强大的图片理解与推理能力,以及精准的指令理解能力。模型在图像文本信息抽取、基于图像的推理任务上有展现出了强大的性能,能够应用于更复杂、更广泛的视觉问答任务。
- Hunyuan-Standard 256K 256K超长上下文多专家模型,长文效果表现优秀,大海捞针指标达99.9%
- Qwen-Max 通义千问2.5系列千亿级别超大规模语言模型,支持中文、英文等不同语言输入。
- Hunyuan-Turbo Vision 采用全新的混合专家模型(MoE)结构
在图文理解相关的基础识别、内容创作、知识问答、分析推理等能力上相比前一代模型全面提升 - Hunyuan-Code混元代码专属模型,在代码对话生成场景具有更好的基础效果
Python、C++、JS、Java、Go 等代码语言效果评测优于市场同规模模型 - Hunyuan-Large腾讯开发的开源业界参数规模最大、效果最好的transformer结构的 MoE 模型
在CMMLU、MMLU、CEval等多学科综合评测集、中英文NLP任务、代码和数学等9大维度全面领先,处于行业领先水平 - GPT-3.5 Turbo 纯官方高速GPT3.5系列,支持function_call。
- Hunyuan-Large Longcontext擅长处理长文任务如文档摘要和文档问答等,同时也具备处理通用文本生成任务的能力
在长文本的分析和生成上表现优异,能有效应对复杂和详尽的长文内容处理需求 - Hunyuan-Vision 首个支持7K分辨率(最大16:1长宽比)
图片理解、图片问答等功能 - Hunyuan-Turbo 更强大的中文创作、逻辑推理、数学计算和多轮对话能力
更优秀的泛化效果,满足知识获取,聊天对话等多场景的业务需求 - GPT-3.5 Turbo Instruct 纯官方高速GPT3.5系列。
- GPT-3.5 Turbo 1106 纯官方高速GPT3.5系列。
- GPT-3.5 Turbo 0125 纯官方高速GPT3.5系列。
- GPT-3.5 Turbo 16k 纯官方高速GPT3.5 16K系列,适用于长对话场景。
- GPT-4 纯官方GPT4系列l。
- GPT-4 0613 纯官方GPT4系列。
- GPT-4 1106 Preview 最新gpt-4-1106-preview,也就是gpt-4-turbo,比gpt-4便宜67%,支持128k上下文,支持tools,知识截止日期2023年4月。
- GPT-4 0125 Preview 最新gpt-4-0125-preview,gpt-4-1106-preview 的升级版,更强的代码生成能力,减少模型「懒惰」现象,修复非英语 UTF-8 生成的问题。
- GPT-4 Turbo Preview gpt-4-turbo-preview 升级版,更强的代码生成能力,减少模型「懒惰」现象,修复非英语 UTF-8 生成的问题。
- GPT-4 Turbo 纯官方高速GPT3.5系列。
- GPT-4 Turbo 2024 04 09 GPT-4 Turbo with Vision 是最新一代的型号。它功能更强大,更新了 2023 年 4 月的知识截止时间,并引入了 128k 上下文窗口,接受文本或图像输入并输出文本,它可以比我们以前的任何模型更准确地解决难题。
- GPT-4 32k 纯官方GPT4 32K系列,支持更大的上下文窗口,适用于复杂的对话场景。
- GPT-4 32k 0314 纯官方GPT4 32K系列,支持更大的上下文窗口,适用于复杂的对话场景。
- GPT-4 32k 0613 纯官方GPT4 32K系列,支持更大的上下文窗口,适用于复杂的对话场景。
- GPT-4o GPT-4o(指向gpt-4o-2024-05-13) 是 OpenAI 最先进的多模式模型,比 GPT-4 Turbo 更快、更便宜,具有更强的视觉功能。该模型具有 128K 上下文和 2023 年 10 月的知识截止点。
- GPT-4o 2024 05 13 GPT-4o 是 OpenAI 最先进的多模式模型,比 GPT-4 Turbo 更快、更便宜,具有更强的视觉功能。该模型具有 128K 上下文和 2023 年 10 月的知识截止点。
- GPT-4o 2024 08 06 gpt-4o-2024-08-06。该模型具有 128K 上下文,每次请求最多可输出16K标记和 2023 年 10 月的知识截止点,支持更严格的json格式化输出,推理能力更强。
- GPT-4o Mini gpt-4o-mini(指向gpt-4o-mini-2024-07-18) GPT-4o Mini主打的就是便宜好用。该模型具有 128K 上下文,每次请求最多可输出16K标记和 2023 年 10 月的知识截止点。
- GPT-4o Mini 2024 07 18 gpt-4o-mini-2024-07-18 GPT-4o Mini主打的就是便宜好用。该模型具有 128K 上下文,每次请求最多可输出16K标记和 2023 年 10 月的知识截止点。
- Chatgpt-4o Latest chatgpt-4o-latest该模型是OpenAI推出的,动态指向官网 ChatGPT 的模型,具有 128K 上下文, 16k max token 和 2023 年 10 月的知识截止点。
- DALL-E 2 DALL·E 支持图像生成,提供多种质量和分辨率选项。
- DALL-E 3 DALL·E 支持图像生成,提供多种质量和分辨率选项。
- Qwen-Max Latest 通义千问系列效果最好的模型,本模型是动态更新版本,模型更新不会提前通知,适合复杂、多步骤的任务,模型中英文综合能力显著提升,模型人类偏好显著提升,模型推理能力和复杂指令理解能力显著增强,困难任务上的表现更优,数学、代码能力显著提升,提升对Table、JSON等结构化数据的理解和生成能力。
- Qwen-Plus 0919 通义千问系列能力均衡的模型,推理效果和速度介于通义千问-Max和通义千问-Turbo之间,适合中等复杂任务。模型中英文综合能力显著提升,模型人类偏好显著提升,模型推理能力和复杂指令理解能力显著增强,困难任务上的表现更优,数学、代码能力显著提升。
- Qwen-Max 0919 通义千问系列效果最好的模型,适合复杂、多步骤的任务,模型中英文综合能力显著提升,模型人类偏好显著提升,模型推理能力和复杂指令理解能力显著增强,困难任务上的表现更优,数学、代码能力显著提升,提升对Table、JSON等结构化数据的理解和生成能力。
- Qwen-Plus 1125 通义千问系列能力均衡的模型,推理效果和速度介于通义千问-Max和通义千问-Turbo之间,适合中等复杂任务。模型中英文综合能力显著提升,模型人类偏好显著提升,模型推理能力和复杂指令理解能力显著增强,困难任务上的表现更优,数学、代码能力显著提升。
- Qwen-Plus 1127 通义千问系列能力均衡的模型,推理效果和速度介于通义千问-Max和通义千问-Turbo之间,适合中等复杂任务。模型中英文综合能力显著提升,模型人类偏好显著提升,模型推理能力和复杂指令理解能力显著增强,困难任务上的表现更优,数学、代码能力显著提升。
- Qwen-Plus Latest 通义千问系列效果最好的模型,本模型是动态更新版本,模型更新不会提前通知,适合复杂、多步骤的任务,模型中英文综合能力显著提升,模型人类偏好显著提升,模型推理能力和复杂指令理解能力显著增强,困难任务上的表现更优,数学、代码能力显著提升,提升对Table、JSON等结构化数据的理解和生成能力。
- Qwen-Turbo 1101 在qwen-turbo-2024-09-19模型的能力之上,qwen-turbo-2024-11-01模型主要的提升点在扩展上下文长度,模型支持的最大上下文长度从128k扩展到1M,该长度约为100万个英文单词或150万个汉字,相当于10本长篇小说,150小时的演讲稿,3万行代码。
- Qwen-Turbo 0919 通义千问系列速度最快、成本很低的模型,适合简单任务。模型中英文综合能力显著提升,模型人类偏好显著提升,模型推理能力和复杂指令理解能力显著增强,困难任务上的表现更优,数学、代码能力显著提升。
- Qwen-Turbo Latest 通义千问系列速度最快、成本很低的模型,适合简单任务。本模型是动态更新版本,模型更新不会提前通知,模型中英文综合能力显著提升,模型人类偏好显著提升,模型推理能力和复杂指令理解能力显著增强,困难任务上的表现更优,数学、代码能力显著提升。
- Qwen-Math Plus 通义千问数学模型具有强大的数学解题能力,擅长处理中英文数学题,包括方程、计算、证明等方向。
- Qwen-Math Plus Latest 通义千问系列数学模型是专门用于数学解题的语言模型,推理效果好,模型性能优秀,本模型是动态更新版本,模型更新不会提前通知。
- Qwen-Math Turbo 通义千问系列数学模型是专门用于数学解题的语言模型,推理速度快,成本低。
- Qwen-Coder Turbo Latest 通义千问系列数学模型是专门用于数学解题的语言模型,推理速度快,成本低,本模型是动态更新版本,模型更新不会提前通知。
- Qwen-Intent Detect 意图识别和槽位填充是对话系统中的基础任务。本模型实现了一个基于 API的意图(intent)和槽位参数(slots)联合预测。在一次模型输出中,同时完成多个指令API的返回和槽位参数的填充。返回的结果为标准json格式。
- Qwen2-Math 72b Instruct 通义千问2-Math模型具有强大的数学解题能力。
- Qwen2-57b A14b Instruct 通义千问2对外开源的57B规模14B激活参数的MOE模型。
- Qwen2-7b Instruct 通义千问2对外开源的7B规模的模型。
- Baichuan4-Turbo 模型能力国内第一,在知识百科、长文本、生成创作等中文任务上超越国外主流模型。还具备行业领先的多模态能力,多项权威评测基准表现优异。
- Baichuan4-Air 模型能力国内第一,在知识百科、长文本、生成创作等中文任务上超越国外主流模型。还具备行业领先的多模态能力,多项权威评测基准表现优异。
- Baichuan4 模型能力国内第一,在知识百科、长文本、生成创作等中文任务上超越国外主流模型。还具备行业领先的多模态能力,多项权威评测基准表现优异。
- Baichuan3-Turbo 针对企业高频场景优化,效果大幅提升,高性价比。相对于Baichuan2模型,内容创作提升20%,知识问答提升17%, 角色扮演能力提升40%。整体效果比GPT3.5更优。
- Baichuan3-Turbo 128k 具备 128K 超长上下文窗口,针对企业高频场景优化,效果大幅提升,高性价比。相对于Baichuan2模型,内容创作提升20%,知识问答提升17%, 角色扮演能力提升40%。整体效果比GPT3.5更优。
- Baichuan2-Turbo 采用搜索增强技术实现大模型与领域知识、全网知识的全面链接。
- Baichuan2-53B 采用搜索增强技术实现大模型与领域知识、全网知识的全面链接。
。。。
更多模型实时更新,具体请自行体验。