最近好久没有写博客了,浅浅记录下如何将OpenAI-Whisper
做成Web服务
吧🤣
介绍
在这篇指导性博客中,我们将探讨如何在Python
中结合使用FastAPI
和OpenAI-Whisper
。OpenAI-Whisper
是一个前沿的语音识别模型,而FastAPI
是一个高性能的现代Web框架
,专门用于构建API
。这两种技术的结合,能够帮助我们快速搭建一个高效的语音转录服务。
环境安装
如想本地安装可参考官网教程。如想将其做成web服务,我们需要准备好开发环境。请按照以下步骤安装所需环境:
-
Python 3.10.10:前往Python官网下载并安装。Windows用户请确保在安装过程中勾选“Add Python to PATH”,不然需自己配置环境变量。
-
Poetry:Poetry是一个Python的依赖管理和包管理工具。安装指令如下,具体可以查看Poetry安装指南:
# Linux、macOS、Windows(WSL) curl -sSL https://install.python-poetry.org | python3 - # Windows(Powershell) (Invoke-WebRequest -Uri https://install.python-poetry.org -UseBasicParsing).Content | py - # 或者 pip install poetry
-
Pycharm:Pycharm是最强大的Python编辑器,可以从JetBrains官网下载并安装。
项目创建
Pycharm创建项目(推荐方式)
-
打开
Pycharm
,选择创建新项目。 -
在弹出的窗口中选择安装路径,并设置项目相关配置。
-
点击创建以初始化新项目。
)
使用命令行创建项目
-
1. 使用Poetry创建项目:我们可以直接使用Poetry创建项目:
poetry new demo-py
-
2. 进入项目目录:进入项目目录准备后续操作:
cd demo-py
安装依赖
使用Poetry
安装FastAPI、Uvicorn(ASGI服务器)和OpenAI-Whisper:
poetry add fastapi uvicorn whisper
Poetry依赖配置如下(可直接复制使用,不用手动add依赖):
[tool.poetry.dependencies]
python = "^3.10"
fastapi = "^0.111.1"
uvicorn = "^0.30.1"
openai-whisper = { git = "https://github.com/openai/whisper.git", rev = "v20231117" }
setuptools-rust = "^1.9.0"
numpy = "^1.26.4"
创建FastAPI应用
在项目目录中创建一个新的Python文件,例如main.py,并添加以下代码:
from fastapi import FastAPI, File, UploadFile, HTTPException
from fastapi.responses import JSONResponse
from tempfile import NamedTemporaryFile, TemporaryDirectory
import whisper
import torch
import os
from typing import List
# 检查是否有NVIDIA GPU可用
torch.cuda.is_available()
DEVICE = "cuda" if torch.cuda.is_available() else "cpu"
# 加载Whisper模型
model = whisper.load_model("base", device=DEVICE)
app = FastAPI()
@app.post("/whisper/")
async def handler(files: List[UploadFile] = File(...)):
if not files:
raise HTTPException(status_code=400, detail="No files were provided")
# 对于每个文件,存储结果在一个字典列表中
results = []
# 使用TemporaryDirectory创建临时目录
with TemporaryDirectory() as temp_dir:
for file in files:
# 在临时目录中创建一个临时文件
temp_file_path = os.path.join(temp_dir, file.filename)
with open(temp_file_path, "wb") as temp_file:
# 将用户上传的文件写入临时文件
temp_file.write(file.file.read())
temp_file.flush() # 确保所有数据写入磁盘
# 确保文件在转录前已关闭
result = model.transcribe(temp_file_path)
# 存储该文件的结果对象
results.append({
'filename': file.filename,
'transcript': result['text'],
})
# 返回包含结果的JSON响应
return JSONResponse(content={'results': results})
运行FastAPI应用
使用Uvicorn
运行FastAPI应用:
poetry run uvicorn main:app --reload
在浏览器中打开http://127.0.0.1:8000/docs
,你将看到自动生成的API文档,可以在这里测试上传音频文件并获取转录结果。
点击“Try it out”上传音视频文件后点击“Execute”执行请求。
至此,我们已经成功集成了Whisper并将其作为服务提供。大家可以自行研究和扩展这个项目。
总结
通过这篇博客,我们学习了如何在Python中使用FastAPI集成OpenAI-Whisper,并创建了一个简单的语音转录服务。
如这篇博客对你有所帮助可以贡献一颗您的小⭐⭐! 项目仓库地址ai-whisper
1.本站内容仅供参考,不作为任何法律依据。用户在使用本站内容时,应自行判断其真实性、准确性和完整性,并承担相应风险。
2.本站部分内容来源于互联网,仅用于交流学习研究知识,若侵犯了您的合法权益,请及时邮件或站内私信与本站联系,我们将尽快予以处理。
3.本文采用知识共享 署名4.0国际许可协议 [BY-NC-SA] 进行授权
4.根据《计算机软件保护条例》第十七条规定“为了学习和研究软件内含的设计思想和原理,通过安装、显示、传输或者存储软件等方式使用软件的,可以不经软件著作权人许可,不向其支付报酬。”您需知晓本站所有内容资源均来源于网络,仅供用户交流学习与研究使用,版权归属原版权方所有,版权争议与本站无关,用户本人下载后不能用作商业或非法用途,需在24个小时之内从您的电脑中彻底删除上述内容,否则后果均由用户承担责任;如果您访问和下载此文件,表示您同意只将此文件用于参考、学习而非其他用途,否则一切后果请您自行承担,如果您喜欢该程序,请支持正版软件,购买注册,得到更好的正版服务。
5.本站是非经营性个人站点,所有软件信息均来自网络,所有资源仅供学习参考研究目的,并不贩卖软件,不存在任何商业目的及用途
暂无评论内容