英偉達(dá)在NeurIPS人工智能大會上宣布推出Alpamayo-R1,這是一款面向自動駕駛研究的開源推理型視覺語言模型。Alpamayo-R1是業(yè)界首個專注于自動駕駛領(lǐng)域的視覺語言動作模型,能夠同時處理文本與圖像信息,使車輛能夠“看見”周圍環(huán)境,并基于所感知的內(nèi)容做出決策。該模型基于英偉達(dá)此前推出的Cosmos-Reason推理模型構(gòu)建,后者具備在響應(yīng)前對決策進(jìn)行邏輯推演的能力。
英偉達(dá)強(qiáng)調(diào),Alpamayo-R1這類技術(shù)對于致力于實現(xiàn)L4級自動駕駛的企業(yè)至關(guān)重要。L4級自動駕駛指在特定區(qū)域和限定條件下實現(xiàn)完全自動駕駛。英偉達(dá)希望,此類具備推理能力的模型能賦予自動駕駛車輛類似人類的“常識”,從而更妥善地應(yīng)對復(fù)雜的駕駛場景中的細(xì)微決策。目前,Alpamayo-R1已在GitHub和HuggingFace平臺開源發(fā)布,同時英偉達(dá)還推出了名為“CosmosCookbook”的全套開發(fā)資源包,包含分步指南、推理工具及訓(xùn)練后工作流,以幫助開發(fā)者更高效地使用和訓(xùn)練Cosmos系列模型。

CONTACT US
ICC APP