AI总结:
这篇博客主要介绍了基于 OpenAI 免登录服务的 ChatGPT API 使用方法和可用模型。文章首先介绍了 Free ChatGPT-3.5-Turbo 服务,并提供了 one api 的整理分发方法。随后详细说明了 API 的使用教程,包括 ChatGPT Next Web 和划词翻译等工具的设置方法。
English Version
This blog primarily discusses the usage methods of ChatGPT API based on OpenAI's login-free service and available models. The article begins by introducing the Free ChatGPT-3.5-Turbo service and provides a method for organizing and distributing using one api. It then details API usage tutorials, including setup instructions for tools like ChatGPT Next Web and word translation plugins.
一,Free ChatGPT-3.5-Turbo
(上述服务无法使用,Free API失效,其他服务正常。)
FreeGPT35-Vercel
cliouo • Updated Jun 13, 2025
并使用one api进行整理分发
one-api
songquanpeng • Updated Jun 16, 2025
二,API使用教程
1,ChatGPT Next Web
优势:启动快,内置多个prompt提示词可随时调用
缺陷:不支持Google Gemini 1.5 Pro模型,不支持模型的函数调用功能
NextChat
ChatGPTNextWeb • Updated Jun 16, 2025
2,Lobe-Chat
优势:支持Google 最新的模型,支持模型的函数调用功能,能够查询API所有可用模型
缺陷:启动较慢,无内置prompt提示词,需要手动输入
lobe-chat
lobehub • Updated Jun 16, 2025
3,划词翻译
(FreeAPI 失效,插件本身可用)
下载并安装插件:划词翻译

4,跨平台划词翻译和OCR
官网地址:https://pot-app.com/
项目地址:
pot-desktop
pot-app • Updated Jun 16, 2025
三,可用模型
1,Microsoft Azure可用模型
渠道路径:Azure Serve → MyServe(HK) → ChatApp(HK)
可用模型
模型名称 | 主要功能 | 优点 | 缺点 |
dall-e-3 | 根据文字描述生成图像 | 生成图像质量高、理解能力强、创意性强 | 可能生成偏见或不符合伦理道德的图像 |
gpt-3.5-turbo | 对话、创意写作、翻译等 | 响应速度快、生成内容质量高、支持多种语言 | 可能生成不真实或误导性信息 |
gpt-3.5-turbo-instruct | 遵循指令完成任务,适用于代码补充 | 更擅长遵循指令,输出内容更符合用户预期 | 在开放式创作方面不如 gpt-3.5-turbo 灵活 |
gpt-3.5-turbo-16k | 处理长文本序列(16k tokens) | 适合处理长文本任务 | 响应速度比 gpt-3.5-turbo 慢 |
gpt-4 | 更强大的文本生成能力 | 生成内容质量更高,支持更多任务类型,更具创造性 | 访问受限,响应速度慢,成本更高 |
gpt-4-32k | 处理长文本序列(32k tokens) | 适合处理更长的文本任务 | 访问受限,响应速度慢,成本更高 |
text-embedding-ada-002 | 将文本转换为数值向量 | 生成嵌入质量高,可用于多种下游任务 | 需要一定的专业知识才能有效使用 |
2,Google Gemini可用模型
渠道路径:Google Serve(US) → Netlift Serve(中转) → ChatApp(HK)
可用模型(已经废弃)
模型名称 | 版本 | 中文名称 | 描述 | 输入 Tokens 限制 | 输出 Tokens 限制 | 支持的功能 | 温度 | Top_p | Top_k |
models/chat-bison-001 | 001 | PaLM 2 聊天 (旧版) | 针对聊天对话优化的旧版纯文本模型。 | 4096 | 1024 | generateMessage, countMessageTokens | 0.25 | 0.95 | 40 |
models/text-bison-001 | 001 | PaLM 2 (旧版) | 理解文本并生成文本输出的旧版模型。 | 8196 | 1024 | generateText, countTextTokens, createTunedTextModel | 0.7 | 0.95 | 40 |
models/embedding-gecko-001 | 001 | 嵌入 Gecko | 获取文本的分布式表示。 | 1024 | 1 | embedText, countTextTokens | - | - | - |
models/gemini-1.0-pro | 001 | Gemini 1.0 Pro | 最适合扩展到各种任务的模型。 | 30720 | 2048 | generateContent, countTokens | 0.9 | 1 | 1 |
models/gemini-1.0-pro-001 | 001 | Gemini 1.0 Pro 001 (调优) | 最适合扩展到各种任务的模型。这是一个支持调优的稳定模型。 | 30720 | 2048 | generateContent, countTokens, createTunedModel | 0.9 | 1 | 1 |
models/gemini-1.0-pro-latest | 001 | Gemini 1.0 Pro 最新版 | 最适合扩展到各种任务的模型。这是最新的模型。 | 30720 | 2048 | generateContent, countTokens | 0.9 | 1 | 1 |
models/gemini-1.0-pro-vision-latest | 001 | Gemini 1.0 Pro 视觉 | 最佳图像理解模型,可处理各种应用。 | 12288 | 4096 | generateContent, countTokens | 0.4 | 1 | 32 |
models/gemini-1.5-pro-latest | 001 | Gemini 1.5 Pro | 支持最多 100 万个 Tokens 的中型多模态模型。 | 1048576 | 8192 | generateContent, countTokens | 1 | 0.95 | - |
models/gemini-pro | 001 | Gemini 1.0 Pro | 最适合扩展到各种任务的模型。 | 30720 | 2048 | generateContent, countTokens | 0.9 | 1 | 1 |
models/gemini-pro-vision | 001 | Gemini 1.0 Pro 视觉 | 最佳图像理解模型,可处理各种应用。 | 12288 | 4096 | generateContent, countTokens | 0.4 | 1 | 32 |
models/embedding-001 | 001 | 嵌入 001 | 获取文本的分布式表示。 | 2048 | 1 | embedContent | - | - | - |
models/text-embedding-004 | 004 | 文本嵌入 004 | 获取文本的分布式表示。 | 2048 | 1 | embedContent | - | - | - |
models/aqa | 001 | 属性问答模型 | 经过训练的模型,可根据提供的来源返回问题的答案,并估计可回答概率。 | 7168 | 1024 | generateAnswer | 0.2 | ㅤ | ㅤ |
目前额度免费,推荐使用。Gemini 1.0 Pro效果高于GPT 3.5系列。
可用模型:gemini-1.5-flash-latest(2024.5.30后失效)
3,Github Copilot可用模型
(目前风险太高,已经停用)

四,模型参数解读
下述内容由Gemini 1.5 Pro生成,结果仅供参考。
1,温度 (Temperature):
- 温度是一个介于 0 和 1 之间的数值,控制模型生成的文本的“随机性”或“创造性”。
- 较低的温度(例如 0.2)会使模型更保守,倾向于生成更常见、更安全的文本,类似于人类的“理性”思考。
- 较高的温度(例如 0.9)会使模型更大胆,倾向于生成更多样化、更具创造性的文本,类似于人类的“发散性”思维。
- 温度为 1 时,模型会根据概率分布随机采样,生成最具随机性的文本。
2,Top_p (Nucleus Sampling):
- Top_p 也是一个介于0和1之间的数值,控制模型在生成文本时考虑的词汇范围。
- 模型会计算每个词汇的概率,并选择概率总和达到 Top_p 的词汇集合作为候选词汇。
- 较低的 Top_p 会使模型集中于高概率词汇,生成更常见、更安全的文本。
- 较高的 Top_p 会使模型考虑更多低概率词汇,生成更多样化、更具创造性的文本。
3,Top_k (Top-K Sampling):
- Top_k 是一个整数,控制模型在生成文本时考虑的候选词汇数量。
- 模型会选择概率最高的 Top_k 个词汇作为候选词汇。
- 较低的 Top_k 会使模型集中于高概率词汇,生成更常见、更安全的文本。
- 较高的 Top_k 会使模型考虑更多词汇,生成更多样化、更具创造性的文本。