5分钟快速接入,开始使用最便宜的AI模型API
只需三步,即可开始使用硅基流动的AI API服务:
访问 硅基流动官网,使用手机号或邮箱完成注册。新用户注册即可获得免费额度,无需信用卡。
登录后,进入控制台 → API密钥管理 → 创建新密钥。请妥善保管您的API Key,不要泄露给他人。
硅基流动完全兼容OpenAI API格式,您可以使用任何支持OpenAI的SDK和工具。
pip install openai
from openai import OpenAI
# 初始化客户端
client = OpenAI(
api_key="your-api-key-here", # 替换为您的硅基流动API密钥
base_url="https://api.siliconflow.cn/v1" # 硅基流动API地址
)
# 调用GPT-4模型
response = client.chat.completions.create(
model="gpt-4",
messages=[
{"role": "system", "content": "你是一个有帮助的AI助手"},
{"role": "user", "content": "介绍一下硅基流动的优势"}
],
temperature=0.7,
max_tokens=1000
)
# 输出结果
print(response.choices[0].message.content)
from openai import OpenAI
client = OpenAI(
api_key="your-api-key-here",
base_url="https://api.siliconflow.cn/v1"
)
# 流式调用
stream = client.chat.completions.create(
model="gpt-4",
messages=[{"role": "user", "content": "写一首关于AI的诗"}],
stream=True
)
# 逐字输出
for chunk in stream:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="")
npm install openai
import OpenAI from 'openai';
const client = new OpenAI({
apiKey: 'your-api-key-here',
baseURL: 'https://api.siliconflow.cn/v1'
});
async function chat() {
const response = await client.chat.completions.create({
model: 'gpt-4',
messages: [
{ role: 'system', content: '你是一个有帮助的AI助手' },
{ role: 'user', content: '硅基流动的价格为什么这么便宜?' }
],
temperature: 0.7,
max_tokens: 1000
});
console.log(response.choices[0].message.content);
}
chat();
async function callAPI() {
try {
const response = await fetch('https://api.siliconflow.cn/v1/chat/completions', {
method: 'POST',
headers: {
'Content-Type': 'application/json',
'Authorization': 'Bearer your-api-key-here'
},
body: JSON.stringify({
model: 'gpt-4',
messages: [
{ role: 'user', content: '你好,介绍一下硅基流动' }
]
})
});
const data = await response.json();
console.log(data.choices[0].message.content);
} catch (error) {
console.error('API调用失败:', error);
}
}
使用cURL可以快速测试API,无需编写代码:
curl https://api.siliconflow.cn/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer your-api-key-here" \
-d '{
"model": "gpt-4",
"messages": [
{
"role": "user",
"content": "硅基流动和OpenAI官方有什么区别?"
}
],
"temperature": 0.7,
"max_tokens": 1000
}'
硅基流动支持200+模型,以下是常用模型推荐:
如果您正在使用OpenAI官方API,迁移到硅基流动非常简单,只需修改两行代码:
from openai import OpenAI
client = OpenAI(
api_key="sk-xxxxx" # OpenAI密钥
# 默认使用OpenAI官方地址
)
from openai import OpenAI
client = OpenAI(
api_key="your-siliconflow-key", # 替换为硅基流动密钥
base_url="https://api.siliconflow.cn/v1" # 添加这一行
)
就是这么简单!其他代码完全不需要修改,所有参数、返回格式都与OpenAI兼容。
让AI自动调用您的函数,实现更复杂的交互:
response = client.chat.completions.create(
model="gpt-4",
messages=[{"role": "user", "content": "今天北京天气如何?"}],
functions=[{
"name": "get_weather",
"description": "获取指定城市的天气",
"parameters": {
"type": "object",
"properties": {
"city": {"type": "string", "description": "城市名称"}
},
"required": ["city"]
}
}]
)
维护对话历史,实现连续对话:
messages = [
{"role": "system", "content": "你是一个有帮助的AI助手"},
{"role": "user", "content": "硅基流动支持哪些模型?"},
{"role": "assistant", "content": "硅基流动支持200+模型,包括GPT-4、Claude、国产主流模型等..."},
{"role": "user", "content": "价格怎么样?"} # 继续上一轮对话
]
response = client.chat.completions.create(
model="gpt-4",
messages=messages
)
response = client.images.generate(
model="dall-e-3",
prompt="一只可爱的猫咪在使用电脑",
size="1024x1024",
quality="standard",
n=1
)
image_url = response.data[0].url
print(f"生成的图片: {image_url}")
import os
from openai import OpenAI
client = OpenAI(
api_key=os.getenv("SILICONFLOW_API_KEY"),
base_url="https://api.siliconflow.cn/v1"
)
from openai import OpenAI, APIError, RateLimitError
try:
response = client.chat.completions.create(
model="gpt-4",
messages=[{"role": "user", "content": "你好"}]
)
except RateLimitError:
print("请求过于频繁,请稍后再试")
except APIError as e:
print(f"API错误: {e}")
max_tokens 限制输出长度# 好的Prompt示例
messages = [
{
"role": "system",
"content": "你是一个专业的Python编程助手,擅长解释代码和提供解决方案。"
},
{
"role": "user",
"content": "请用Python实现一个简单的HTTP服务器,并提供详细注释。"
}
]
原因:API密钥无效或未设置
解决:检查API密钥是否正确,确保添加了 "Bearer " 前缀(使用SDK时自动添加)
原因:请求频率过高
解决:添加请求间隔,或联系硅基流动提升限额
原因:网络问题或请求耗时过长
解决:增加timeout设置,或使用流式输出
原因:模型名称错误或该模型不支持
解决:查看官方文档确认模型名称