🤖ChatGPT
2024-4-6
| 2025-6-8
字数 1186阅读时长≈ 3 分钟
🤖
AI总结:
这篇博客主要介绍了基于 OpenAI 免登录服务的 ChatGPT API 使用方法和可用模型。文章首先介绍了 Free ChatGPT-3.5-Turbo 服务,并提供了 one api 的整理分发方法。随后详细说明了 API 的使用教程,包括 ChatGPT Next Web 和划词翻译等工具的设置方法。
English Version
This blog primarily discusses the usage methods of ChatGPT API based on OpenAI's login-free service and available models. The article begins by introducing the Free ChatGPT-3.5-Turbo service and provides a method for organizing and distributing using one api. It then details API usage tutorials, including setup instructions for tools like ChatGPT Next Web and word translation plugins.

一,Free ChatGPT-3.5-Turbo

(上述服务无法使用,Free API失效,其他服务正常。)
基于OpenAI免登录功能,无成本使用ChatGPT-3.5-Turbo服务。
根据以下Github项目,搭建免费的API服务(逆向破解API)
路径:Vercel Serve(USA) → MyServe(HK) → ChatApp(SG) or Others
FreeGPT35-Vercel
cliouoUpdated Jun 13, 2025
并使用one api进行整理分发
one-api
songquanpengUpdated Jun 16, 2025
接口地址:https://api.vsar.site/
API Key:sk-Fsy9v3HwkzTrVLqm1a3fF2Ee721047F299090400FaEf2271
Model:GPT-3.5-Turbo

二,API使用教程

1,ChatGPT Next Web

选择:自定义接口->OpenAI
填入接口地址与API,选择GPT-3.5-Turbo,并开始使用
优势:启动快,内置多个prompt提示词可随时调用
缺陷:不支持Google Gemini 1.5 Pro模型,不支持模型的函数调用功能
NextChat
ChatGPTNextWebUpdated Jun 16, 2025

2,Lobe-Chat

(Lobe-Chat启动过慢,不再进行部署。)
选择:OpenAI 接口
填入接口地址与API,选择GPT-3.5-Turbo,并开始使用
优势:支持Google 最新的模型,支持模型的函数调用功能,能够查询API所有可用模型
缺陷:启动较慢,无内置prompt提示词,需要手动输入
lobe-chat
lobehubUpdated Jun 16, 2025

3,划词翻译

(FreeAPI 失效,插件本身可用)
下载并安装插件:划词翻译
在如下设置中填入,并在Secret填入API Key开始使用
notion image

4,跨平台划词翻译和OCR

官网地址:https://pot-app.com/
项目地址:
pot-desktop
pot-appUpdated Jun 16, 2025

三,可用模型

1,Microsoft Azure可用模型

渠道路径:Azure Serve → MyServe(HK) → ChatApp(HK)
由于路径问题,可能出现过长的等待情况。
可用模型
模型名称
主要功能
优点
缺点
dall-e-3
根据文字描述生成图像
生成图像质量高、理解能力强、创意性强
可能生成偏见或不符合伦理道德的图像
gpt-3.5-turbo
对话、创意写作、翻译等
响应速度快、生成内容质量高、支持多种语言
可能生成不真实或误导性信息
gpt-3.5-turbo-instruct
遵循指令完成任务,适用于代码补充
更擅长遵循指令,输出内容更符合用户预期
在开放式创作方面不如 gpt-3.5-turbo 灵活
gpt-3.5-turbo-16k
处理长文本序列(16k tokens)
适合处理长文本任务
响应速度比 gpt-3.5-turbo 慢
gpt-4
更强大的文本生成能力
生成内容质量更高,支持更多任务类型,更具创造性
访问受限,响应速度慢,成本更高
gpt-4-32k
处理长文本序列(32k tokens)
适合处理更长的文本任务
访问受限,响应速度慢,成本更高
text-embedding-ada-002
将文本转换为数值向量
生成嵌入质量高,可用于多种下游任务
需要一定的专业知识才能有效使用

2,Google Gemini可用模型

渠道路径:Google Serve(US) → Netlift Serve(中转) → ChatApp(HK)
可用模型(已经废弃)
模型名称
版本
中文名称
描述
输入 Tokens 限制
输出 Tokens 限制
支持的功能
温度
Top_p
Top_k
models/chat-bison-001
001
PaLM 2 聊天 (旧版)
针对聊天对话优化的旧版纯文本模型。
4096
1024
generateMessage, countMessageTokens
0.25
0.95
40
models/text-bison-001
001
PaLM 2 (旧版)
理解文本并生成文本输出的旧版模型。
8196
1024
generateText, countTextTokens, createTunedTextModel
0.7
0.95
40
models/embedding-gecko-001
001
嵌入 Gecko
获取文本的分布式表示。
1024
1
embedText, countTextTokens
-
-
-
models/gemini-1.0-pro
001
Gemini 1.0 Pro
最适合扩展到各种任务的模型。
30720
2048
generateContent, countTokens
0.9
1
1
models/gemini-1.0-pro-001
001
Gemini 1.0 Pro 001 (调优)
最适合扩展到各种任务的模型。这是一个支持调优的稳定模型。
30720
2048
generateContent, countTokens, createTunedModel
0.9
1
1
models/gemini-1.0-pro-latest
001
Gemini 1.0 Pro 最新版
最适合扩展到各种任务的模型。这是最新的模型。
30720
2048
generateContent, countTokens
0.9
1
1
models/gemini-1.0-pro-vision-latest
001
Gemini 1.0 Pro 视觉
最佳图像理解模型,可处理各种应用。
12288
4096
generateContent, countTokens
0.4
1
32
models/gemini-1.5-pro-latest
001
Gemini 1.5 Pro
支持最多 100 万个 Tokens 的中型多模态模型。
1048576
8192
generateContent, countTokens
1
0.95
-
models/gemini-pro
001
Gemini 1.0 Pro
最适合扩展到各种任务的模型。
30720
2048
generateContent, countTokens
0.9
1
1
models/gemini-pro-vision
001
Gemini 1.0 Pro 视觉
最佳图像理解模型,可处理各种应用。
12288
4096
generateContent, countTokens
0.4
1
32
models/embedding-001
001
嵌入 001
获取文本的分布式表示。
2048
1
embedContent
-
-
-
models/text-embedding-004
004
文本嵌入 004
获取文本的分布式表示。
2048
1
embedContent
-
-
-
models/aqa
001
属性问答模型
经过训练的模型,可根据提供的来源返回问题的答案,并估计可回答概率。
7168
1024
generateAnswer
0.2
💡
目前额度免费,推荐使用。Gemini 1.0 Pro效果高于GPT 3.5系列。
可用模型:gemini-1.5-flash-latest(2024.5.30后失效)

3,Github Copilot可用模型

(目前风险太高,已经停用)
渠道路径:Github Serve(Unknow) → MyServe(HK) → ChatApp(HK)
来源于Github Copilot逆向,具有较好的代码编写功能,建议配合Next Web的面具使用
notion image
💡
目前额度免费,推荐使用,在Chat-Web填入密码后选择模型为GPT-4-0314。

四,模型参数解读

💡
下述内容由Gemini 1.5 Pro生成,结果仅供参考。

1,温度 (Temperature):

  • 温度是一个介于 0 和 1 之间的数值,控制模型生成的文本的“随机性”或“创造性”。
  • 较低的温度(例如 0.2)会使模型更保守,倾向于生成更常见、更安全的文本,类似于人类的“理性”思考。
  • 较高的温度(例如 0.9)会使模型更大胆,倾向于生成更多样化、更具创造性的文本,类似于人类的“发散性”思维。
  • 温度为 1 时,模型会根据概率分布随机采样,生成最具随机性的文本。

2,Top_p (Nucleus Sampling):

  • Top_p 也是一个介于0和1之间的数值,控制模型在生成文本时考虑的词汇范围。
  • 模型会计算每个词汇的概率,并选择概率总和达到 Top_p 的词汇集合作为候选词汇。
  • 较低的 Top_p 会使模型集中于高概率词汇,生成更常见、更安全的文本。
  • 较高的 Top_p 会使模型考虑更多低概率词汇,生成更多样化、更具创造性的文本。

3,Top_k (Top-K Sampling):

  • Top_k 是一个整数,控制模型在生成文本时考虑的候选词汇数量。
  • 模型会选择概率最高的 Top_k 个词汇作为候选词汇。
  • 较低的 Top_k 会使模型集中于高概率词汇,生成更常见、更安全的文本。
  • 较高的 Top_k 会使模型考虑更多词汇,生成更多样化、更具创造性的文本。
 
  • AI
  • 工具
  • AI SearchCloudflare服务
    Loading...