انویدیا مدلهای متنباز هوش مصنوعی برای تحقیق روی خودروهای خودران معرفی کرد
شرکت انویدیا (Nvidia)، غول پردازندههای گرافیکی و زیرساخت هوش مصنوعی، روز دوشنبه از مجموعهای از زیرساختها و مدلهای جدید هوش مصنوعی رونمایی کرد که هدف آنها ساخت «ستون فقرات» فناوری برای «هوش مصنوعی فیزیکی» است؛ یعنی رباتها و خودروهای خودرانی که بتوانند دنیای واقعی را ببینند، درک کنند و با آن تعامل داشته باشند.
تحلیل — هوش مصنوعی فیزیکی، مرحلهٔ بعدی انقلاب AIانویدیا دیگر تنها به تولید مدلهای زبانی محدود نمیشود؛ بلکه با ترکیب چشم، ذهن و استدلال، در حال ساخت «مغز هوشمند» برای رباتها و خودروهای آینده است. این حرکت هم فضای پژوهشی را گسترش میدهد و هم تقاضا برای سختافزارهای تخصصی آن را تضمین میکند.
در کنفرانس هوش مصنوعی NeurIPS در سندیگو (ایالت کالیفرنیا، آمریکا)، شرکت انویدیا از Alpamayo-R1 رونمایی کرد؛ یک «مدل متنباز استدلالیِ دیداری–زبانی» ویژهٔ تحقیقات در حوزهٔ رانندگی خودران. این مدل در قالب یک open reasoning vision language model معرفی شده که مشخصاً برای سناریوهای رانندگی خودران طراحی شده است. مدلهای دیداری–زبانی میتوانند متن و تصویر را بهصورت همزمان پردازش کنند و در حوزهٔ خودرو خودران این یعنی خودرو میتواند محیط اطراف خود را «ببیند» و بر اساس آنچه درک میکند تصمیم بگیرد.
Alpamayo-R1: مغزی که قبل از تصمیمگیری «فکر» میکند
مدل Alpamayo-R1 روی مدل استدلالی Cosmos-Reason انویدیا بنا شده است؛ مدلی که قبل از هر پاسخ، چند مرحله «فکر» میکند و سناریوهای مختلف را میسنجد. خانوادهٔ مدلهای Cosmos برای نخستین بار در ژانویهٔ ۲۰۲۵ معرفی شد و نسخهها و مدلهای تکمیلی دیگری نیز در آگوست همان سال منتشر شدند.
به گفتهٔ انویدیا، فناوریهایی مانند Alpamayo-R1 برای رسیدن شرکتها به سطح ۴ رانندگی خودران حیاتی است؛ سطحی که در آن خودرو میتواند در یک محدودهٔ تعریفشده و تحت شرایط مشخص، کاملاً بدون راننده و خودکار حرکت کند؛ موضوعی که شرکت در یک پست وبلاگی به آن اشاره کرده است. هدف انویدیا این است که چنین مدلهای استدلالی، نوعی «حس شهودی» و شهود شبیه انسان را به سیستمهای خودران اضافه کنند تا خودروها بتوانند در موقعیتهای پیچیده و مبهم، تصمیمهای منطقیتر و نزدیکتر به رفتار رانندهٔ انسانی بگیرند.
دسترسی عمومی و ابزارهای همراه برای توسعهدهندگان
این مدل جدید هماکنون روی GitHub و Hugging Face در دسترس پژوهشگران و توسعهدهندگان قرار گرفته است تا بتوانند آن را در پروژههای خودران و رباتیک بهکار بگیرند یا برای کاربردهای خاص خود آموزش مجدد دهند. همزمان با معرفی این مدل دیداری–زبانی، انویدیا مجموعهای از راهنماهای مرحلهبهمرحله، منابع استنتاج و گردشکارهای پس از آموزش را نیز روی GitHub منتشر کرده که در قالب بستهای به نام «Cosmos Cookbook» ارائه میشود تا توسعهدهندگان راحتتر مدلهای Cosmos را برای سناریوهای خود تنظیم و ارزیابی کنند.
نگاه بنیانگذار — موج بعدی هوش مصنوعی، فیزیکی استجنسن هوانگ، مدیرعامل انویدیا، پیشتر اعلام کرده: «موج بعدی هوش مصنوعی، هوش مصنوعی فیزیکی خواهد بود.» این دیدگاه با ادعای Bill Dally، مدیر علمی انویدیا، در گفتوگویی با TechCrunch هم تأیید شد که در آن میگوید: «رباتها نقش بسیار بزرگی در اقتصاد و زندگی روزمره بازی خواهند کرد و ما میخواهیم مغز همهٔ این رباتها را بسازیم.»
این اعلامیهها در ادامهٔ حرکت پرشتاب انویدیا به سمت «هوش مصنوعی فیزیکی» است؛ مسیری که مستقیماً به افزایش تقاضا برای GPUهای پیشرفتهٔ این شرکت در حوزههایی مانند رباتیک و خودروهای خودران منجر میشود.
دسترسی سریع و ایمن به ابزارهای قدرتمند فناوری!
