近日,清華大學精密儀器系類腦計算研究團隊研制出世界首款類腦互補視覺芯片“天眸芯”。該成果刊登在 5 月 30 日《自然》雜志封面。這是該團隊繼異構融合類腦計算“天機芯”后,第二次登上《自然》雜志封面,標志著我國在類腦計算和類腦感知兩個重要方向上均取得基礎性突破。
2024年5月30日《自然》雜志封面。圖片來源:《自然》雜志網站
研究團隊聚焦類腦視覺感知芯片技術,提出一種基于視覺原語的互補雙通路類腦視覺感知新范式——借鑒人類視覺系統的基本原理,將開放世界的視覺信息拆解為基于視覺原語的信息表示,并通過有機組合這些原語,模仿人視覺系統的特征,形成兩條優勢互補、信息完備的視覺感知通路。
在此基礎上,團隊研制出世界首款類腦互補視覺芯片“天眸芯”,在極低的帶寬(降低 90% )和功耗代價下,實現每秒 10000 幀的高速、 10bit 的高精度、 130dB 的高動態范圍的視覺信息采集,不僅突破傳統視覺感知范式的性能瓶頸,而且能夠高效應對各種極端場景,確保系統的穩定性和安全性。
隨著人工智能的飛速發展,無人駕駛和具身智能等無人系統正在現實社會中不斷推廣應用。視覺感知作為獲取信息的核心途徑,發揮著至關重要的作用。然而,在復雜多變且不可預測的環境中,實現高效、精確且魯棒(即在異常和危險情況下系統生存的能力)的視覺感知依然是一個艱巨的挑戰。
在開放世界中,智能系統不僅要處理龐大的數據量,還需要應對各種極端事件,如駕駛中的突發危險、隧道口的劇烈光線變化和夜間強閃光干擾等。傳統視覺感知芯片由于受到“功耗墻”和“帶寬墻”的限制,在應對這些場景時往往面臨失真、失效或高延遲的問題,嚴重影響了系統的穩定性和安全性。
“天眸芯”在極低的帶寬(降低90%)和功耗代價下,實現了每秒10000幀的高速、10bit的高精度、130dB的高動態范圍的視覺信息采集。它不僅突破了傳統視覺感知范式的性能瓶頸,而且能夠高效應對各種極端場景,確保系統的穩定性和安全性。
基于“天眸芯”,團隊還自主研發了高性能軟件和算法,并在開放環境車載平臺上進行了性能驗證。在多種極端場景下,該系統實現了低延遲、高性能的實時感知推理,展現了其在智能無人系統領域的巨大應用潛力。
“天眸芯”的成功研制是智能感知芯片領域的一個重大突破。它不僅為智能革命的發展提供了一個強大的技術支持,還為自動駕駛、具身智能等重要應用開辟了新的道路。結合團隊在類腦計算芯片“天機芯”、類腦軟件工具鏈和類腦機器人等方面已應用落地的技術積累,“天眸芯”的加入將進一步完善類腦智能生態,有力地推動人工通用智能的發展。
這項研究得到了科技部科技創新2030“腦科學與類腦研究”重大項目和自然基金委的支持,也得到了清華大學/IDG-麥戈文腦科學研究院的支持。
綜合來源:科技日報、中國青年報等
上一篇:這張圖像,結束了170多年對于冰的爭論 | 博覽日報
下一篇:返回列表
【免責聲明】本文轉載自網絡,與科技網無關。科技網站對文中陳述、觀點判斷保持中立,不對所包含內容的準確性、可靠性或完整性提供任何明示或暗示的保證。請讀者僅作參考,并請自行承擔全部責任。