Silero模型:经过预先培训的企业级STT模型和基准。企业级STT变得令人耳目一新的简单(说真的,请看基准)。我们提供的质量可与谷歌的STT相媲美(有时甚至更好),我们不是谷歌。
所有提供的模型都列在model s.yml文件中,所有元数据和更新的版本都将添加到那里。
从omegaconf导入手电筒导入OmegaConf model=OmegaConf。加载(';mods.yml';)设备=手电筒。Device(';cpu';)#您可以使用任何pytorch设备型号,decder=init_jit_model(型号。STT_MODELES。嗯。最新的。JIT,设备=设备)。
导入手电筒设备=手电筒。设备(#39;CPU';)#图形处理器也可以工作,但我们的型号足够快的CPU型号,解码器,utils=手电筒。集线器。Load(GitHub=';snakers4/silero-model';,model=';silero_stt';,device=device,force_reload=True,language=';de&39;)(read_Batch,Split_into_Batches,Read_Audio,Prepare_Model_Input)=utils#有关详细信息,请参阅函数签名。
我们以TorchScript包的形式提供模型,因此您可以使用PyTorch本身提供的部署选项(C++、Java)。请参阅示例笔记本中的详细信息。
您可以在任何地方运行我们的模型,在那里您可以导入ONNX模型或运行ONNX运行时。
导入json导入onnx导入手电筒导入临时文件从omegaconf导入onnxrun导入OmegaConf model=OmegaConf。使用临时文件加载(';model s.yml';)。命名临时文件(';wb';,后缀=';.json';)作为f:Torch。集线器。Download_url_to_file(型号。STT_MODELES。嗯。最新的。标签,F.name,Progress=True),打开(F.name)为f:labels=json。使用临时文件加载(F)解码器=解码器(标签)。命名临时文件(';wb';,后缀=';.model';)作为f:Torch。集线器。Download_url_to_file(型号。STT_MODELES。嗯。最新的。Onnx,F.name,Progress=True)onnx_model=onnx。加载(F.名称)外衣。切克。Check_model(Onnx_Model)ort_session=onnxrun。InferenceSession(F.name)。
CoLab笔记本和互动演示正在进行中。请在此期间参阅此笔记本,了解以下信息: