昨天凌晨,OpenAI以全資收購io的消息成為熱點焦點。同時,OpenAI還發布了另一項重要更新——智能體開發的核心API(Responses API)現已支持MCP功能。
傳統上,開發智能體時,需要通過函數調用與外部服務進行交互,每次操作都需經過大模型、后端及外部服務之間多次網絡傳輸,這不僅增加了延遲,也令系統擴展和管理更加復雜。
而現在,借助Responses API的MCP支持,開發者無需為每個函數調用單獨配置對應服務,只需將模型設定為連接一個或多個MCP服務即可,大大簡化了開發過程,提高了效率。
自從OpenAI推出Responses API以來,已有數十萬開發者利用該接口處理了數萬億的token數據,構建了多樣的智能體應用,比如Zencoder的編碼助手、Revi服務于私募股權與投資銀行的市場智能體,以及MagicSchool AI的教育專用智能體。
為了讓智能體開發更加便捷,Responses API現支持MCP服務,開發者僅需幾行代碼即可將智能體快速接入強大的外部工具和服務。舉例來說,連接至電商平臺Shopify的智能體只需不到十行代碼即可實現。
以往,開發者需要編寫定制的接口包裝函數,比如cart_add或create_payment_link,并且搭建和維護自己的中繼服務器,流程復雜且耗時。而現在,這一過程被極大簡化,只需通過簡單配置即可完成對接。
僅用13行代碼就能實現智能體與云通信平臺Twilio的連接。相比之前需要在后端分別集成兩個工具并手動處理短信負載,這大大簡化了開發流程。
引入MCP功能后,還帶來了集中化管理工具的優勢,使智能體能夠更高效地調用外部服務。通過設置allowed_tools參數,開發者可以明確限定智能體可使用的工具范圍,有效防止無關工具的調用,減少上下文信息過載,并提升響應速度。
在處理用戶查詢時,智能體可以依據預設規則,選擇最合適的工具進行調用,避免盲目嘗試所有可用選項。
借助MCP,可以實施精細的權限管理來保障智能體調用的安全性。比如,限制智能體只能訪問特定工具,或在調用前需經過明確授權,從而防止濫用并保護外部服務的安全。通過每次調用傳遞授權密鑰和服務器地址,MCP確保身份驗證和權限控制的安全,同時避免敏感信息暴露在響應數據中。
此外,MCP支持動態導入和緩存工具列表。智能體首次連接MCP服務器時,會加載工具清單并緩存到模型上下文,后續調用可直接利用緩存,減少等待時間并提升響應效率。
除了以上優勢,MCP還擁有更多實用功能。
Responses API也帶來其他重要更新:
?圖像生成:開發者能夠直接通過Responses API訪問最新的OpenAI圖像生成模型(例如 ),并將其作為工具使用。該功能支持實時流式傳輸,方便在生成過程中預覽圖像,同時支持多輪編輯,便于逐步調整和完善效果。
?Code Interpreter:新增的Code Interpreter工具支持Responses API,能夠執行數據分析、解決復雜數學與編程問題,甚至輔助模型深入解析和操控圖像。借助它,模型可以通過運行代碼來獲得解答,顯著提升問題處理能力。
?文件搜索:文件搜索功能得到加強,不僅能根據用戶查詢提取文檔中的相關內容塊加入上下文,還支持跨多個向量庫進行搜索,并允許利用數組實現屬性過濾,更靈活高效地獲取所需信息。
此外,OpenAI還為Responses API新增了后臺模式功能。該模式適用于處理耗時較長的任務,允許開發者異步啟動操作,避免因超時或連接中斷而影響流程。開發者可以通過輪詢來查詢任務狀態,或者在合適時機開啟事件的流式傳輸。
推理摘要功能允許Responses API將模型的內部推理過程轉化為簡明且自然的語言。這有助于開發者更便捷地進行調試和審查,同時優化最終用戶的使用體驗。
加密推理項功能支持滿足零數據保留(ZDR)要求的客戶,在不同的API請求中重復利用推理項,無需在OpenAI服務器上保存任何數據。這樣不僅增強了系統的智能性,還能有效降低令牌消耗,從而減少費用和響應時間。
我們相信人工智能為普通人提供了一種“增強工具”,并致力于分享全方位的AI知識。在這里,您可以找到最新的AI科普文章、工具評測、提升效率的秘籍以及行業洞察。 歡迎關注“福大大架構師每日一題”,讓AI助力您的未來發展。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.