快科技5月20日消息,NVIDIA宣布,TensorRT AI推理加速框架現已登陸GeForce RTX顯卡,性能比DirectML直接翻倍。
TensorRT是NVIDIA推出的一種推理優化器,能夠顯著提升AI模型的運行效率,此次,NVIDIA將TensorRT引入RTX平臺,使得所有RTX顯卡的用戶都能享受到更快的AI性能。
根據NVIDIA的介紹,TensorRT不僅支持原生Windows ML,還能夠自動選擇合適的硬件來運行每個AI功能,并下載相應的執行提供程序,極大地簡化了開發流程。
在性能方面,NVIDIA展示了TensorRT與DirectML的對比數據:在ComfyUI中,使用TensorRT的用戶可以獲得高達2倍的性能提升;在DaVinci Resolve和Vegas Pro中,性能提升達到了60%。
此外,TensorRT for RTX還帶來了其他優勢,例如8倍更小的庫文件大小和針對每個GPU的即時優化,這些改進不僅提升了性能,還優化了軟件的存儲和管理。
TensorRT for RTX將在6月正式推出,NVIDIA還在不斷擴展其AI SDKs,目前正為超過150個AI SDK提供支持,本月將推出5個新的ISV集成,包括LM Studio、Topaz Video AI、Bilibili、AutoDesk VRED和Chaos Enscape等。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.