بزرگ‌ترین خبرهای AWS re:Invent 2025 برای هوش مصنوعی سازمانی

بزرگ‌ترین خبرهای AWS re:Invent 2025 برای هوش مصنوعی سازمانی

نویسنده

 

بزرگ‌ترین خبرهای رویداد فناورانه AWS re:Invent ۲۰۲۵

کنفرانس سالانه «AWS re:Invent ۲۰۲۵» شرکت «آمازون وب سرویسز (AWS)» این هفته در لاس‌وگاس برگزار می‌شود و از تراشه‌های هوش مصنوعی تا سرویس‌های ابری و عامل‌های هوشمند، موجی از خبرهای مهم را برای کسب‌وکارها به همراه داشته است.

تحلیل
تمرکز اصلی رویداد، حرکت AWS از دستیارهای هوشمند به سمت «عامل‌های هوش مصنوعی خودکار در سطح سازمانی» است که قادرند تصمیم‌گیری‌های پیچیده را بدون مداخلهٔ مداوم انسان انجام دهند و مستقیماً ارزش اقتصادی ایجاد کنند.

تمرکز اصلی: عامل‌های هوش مصنوعی در مقیاس سازمانی
روز اول برنامه‌های رسمی رویداد با انبوهی از معرفی محصول و سرویس جدید به پایان رسید؛ محور مشترک تقریباً همه این خبرها، «هوش مصنوعی برای سازمان‌ها» و به‌ویژه نسل تازه «عامل‌های هوشمند» بود که می‌توانند کارها را به‌طور خودکار برای مشتریان انجام دهند.
«مت گارمن، مدیرعامل AWS»، در سخنرانی آغازین خود تأکید کرد عامل‌های هوش مصنوعی، مرحله‌ای فراتر از «دستیارهای هوشمند» هستند و جایی‌اند که بازگشت سرمایه واقعی از پروژه‌های هوش مصنوعی برای شرکت‌ها شکل می‌گیرد.

تراشه Trainium۳ و هم‌زیستی با انویدیا

AWS نسخهٔ جدید تراشه اختصاصی آموزش هوش مصنوعی خود با نام Trainium۳ و یک سیستم مبتنی بر آن به‌نام UltraServer را معرفی کرد.
طبق اعلام AWS، این نسل جدید تا حدود «۴ برابر» توان پردازش بیشتر برای آموزش و استنتاج مدل‌های هوش مصنوعی ارائه می‌دهد و هم‌زمان مصرف انرژی را تا حدود «۴۰٪» کاهش می‌دهد، که برای مراکز دادهٔ بزرگ و هزینهٔ برق بالا، مزیت مهمی محسوب می‌شود.

AWS همچنین خبر داد که نسل بعدی این تراشه یعنی Trainium۴ در حال توسعه است و به‌گونه‌ای طراحی خواهد شد که بتواند در کنار تراشه‌های شرکت «انویدیا» در یک اکوسیستم مشترک کار کند؛ این یعنی AWS عملاً به‌سمت معماری ترکیبی می‌رود تا وابستگی صرف به یک نوع تراشه برای مشتریانش ایجاد نشود.

گسترش پلتفرم AgentCore برای ساخت عامل‌ها

AWS قابلیت‌های جدیدی را برای پلتفرم ساخت عامل‌های هوش مصنوعی خود با نام AgentCore معرفی کرد که هدف آن، کنترل و مدیریت دقیق‌تر این عامل‌ها در محیط‌های سازمانی است.
یکی از ویژگی‌های مهم، ماژولی به نام Policy در AgentCore است که به توسعه‌دهندگان اجازه می‌دهد مرزها، محدودیت‌ها و سیاست‌های رفتاری عامل‌ها را ساده‌تر و شفاف‌تر تعریف کنند؛ این موضوع در سناریوهایی مثل بانک، بیمه یا دولت که خطای عامل می‌تواند پیامد حقوقی داشته باشد، اهمیت زیادی دارد.

نکته مفهومی
عامل‌ها در AgentCore حالا می‌توانند رفتار و ترجیحات کاربران را ثبت و به‌خاطر بسپارند و AWS برای کمک به مشتریان، «۱۳ سیستم ارزیابی از پیش‌ساخته» ارائه کرده تا کیفیت، دقت و ایمنی عامل‌ها را به‌صورت ساختاریافته بسنجند.

«فرانتیر ایجنت‌ها»: عامل‌های خودکار که روزها کار می‌کنند

AWS سه عامل هوش مصنوعی جدید را با عنوان Frontier Agents معرفی کرد که هرکدام برای یک نیاز تخصصی در توسعه نرم‌افزار و عملیات فناوری طراحی شده‌اند.
یکی از این‌ها، «عامل خودکار Kiro» است که برای نوشتن کد و یادگیری شیوهٔ کاری تیم‌ها طراحی شده و به‌گفتهٔ AWS می‌تواند پس از یادگیری الگوی کار، برای «ساعت‌ها یا حتی روزها» بدون نیاز به مداخلهٔ مداوم انسان روی تسک‌ها کار کند.

عامل دوم بر امنیت متمرکز است و وظایفی مانند بازبینی امنیتی کدها و فرایندهای نرم‌افزاری را انجام می‌دهد و عامل سوم هم کارهای DevOps مثل پیشگیری از خطاها هنگام استقرار نسخه‌های جدید را بر عهده می‌گیرد؛ نسخهٔ پیش‌نمایش این عامل‌ها هم‌اکنون برای مشتریان در دسترس است.

خانواده مدل‌های Nova و سرویس Nova Forge

AWS چهار مدل جدید هوش مصنوعی را در خانواده Nova معرفی کرده است: سه مدل مولد متن و یک مدل چندرسانه‌ای که هم متن تولید می‌کند و هم تصویر.
به موازات آن، سرویسی به نام Nova Forge رونمایی شد که به مشتریان ابری AWS اجازه می‌دهد از میان مدل‌های «از‌پیش‌تمرین‌شده»، «میانی» یا «پس از آموزش» انتخاب کنند و سپس آن‌ها را با داده‌های اختصاصی شرکت خود، آموزش تکمیلی بدهند.

گزارش
رویکرد AWS در این‌جا، ارائهٔ حداکثر «انعطاف‌پذیری و شخصی‌سازی» است؛ یعنی شرکت‌ها به‌جای ساخت مدل از صفر، روی تنظیم و بهینه‌سازی مدل‌های موجود برای داده‌ها و نیازهای کسب‌وکارشان تمرکز کنند که از نظر زمان و هزینه، برای بسیاری از شرکت‌های ایرانی و بین‌المللی به‌صرفه‌تر است.

تجربهٔ «لیفت» از عامل‌های AWS

شرکت تاکسی اینترنتی «لیفت (Lyft)» هم در جریان رویداد، تجربهٔ خود از استفاده از عامل‌های هوش مصنوعی AWS را به اشتراک گذاشت.
لیفت اعلام کرد با استفاده از مدل Claude متعلق به شرکت Anthropic از طریق سرویس Amazon Bedrock، یک عامل هوش مصنوعی برای پاسخ‌گویی به پرسش‌ها و مشکلات راننده‌ها و مسافران ساخته است که توانسته «میانگین زمان رسیدگی به درخواست‌ها را حدود ۸۷٪ کاهش دهد».

به‌گفتهٔ لیفت، میزان استفادهٔ رانندگان از این عامل هوش مصنوعی در سال جاری حدود «۷۰٪ افزایش» داشته که نشان می‌دهد پذیرش این نوع سامانه‌ها، در اکوسیستم حمل‌ونقل آنلاین رو‌به‌افزایش است؛ الگوی مشابهی می‌تواند در کسب‌وکارهای خدماتی آنلاین در ایران نیز پیاده‌سازی شود.

«کارخانهٔ هوش مصنوعی» برای دیتاسنترهای خصوصی

«آمازون» همچنین محصولی با عنوان «AI Factories» معرفی کرد که به سازمان‌های بزرگ و دولت‌ها اجازه می‌دهد سامانه‌های هوش مصنوعی AWS را نه در ابر عمومی، بلکه در دیتاسنترهای داخلی خودشان اجرا کنند.
این سیستم با همکاری «انویدیا» طراحی شده و هم سخت‌افزار انویدیا و هم فناوری AWS را در بر می‌گیرد؛ سازمان‌ها می‌توانند آن را با GPUهای انویدیا مجهز کنند یا از تراشهٔ جدید Trainium۳ آمازون بهره ببرند.

نگاه بنیان‌گذار
هدف اصلی، پاسخ‌دادن به دغدغهٔ «حاکمیت داده» است؛ یعنی شرکت‌ها و نهادهایی که به‌دلیل قوانین داخلی یا ملاحظات امنیتی نمی‌خواهند داده‌های حساسشان را به ابر عمومی بفرستند، اما همچنان می‌خواهند از مزیت‌های هوش مصنوعی در مقیاس بزرگ استفاده کنند. برای مخاطب ایرانی، این رویکرد می‌تواند نمونه‌ای از راه‌حل‌های ترکیبی باشد که در سناریوهای تحریم و محدودیت دسترسی مستقیم به ابرهای بین‌المللی مطرح می‌شود. دسترسی سریع و ایمن به ابزارهای قدرتمند فناوری!
نویسنده
نویسنده

بیوگرافی در دسترس نیست.

آمازون با «AI Factories» مبتنی بر Nvidia در دیتاسنترهای داخلی، رقبا را به چالش می‌کشد.
اخبار هوش مصنوعی

آمازون با «AI Factories» مبتنی بر Nvidia در دیتاسنترهای داخلی، رقبا را به چالش می‌کشد.

نویسنده

 

آمازون با «کارخانه‌های هوش مصنوعی» آن‌پرمیزیِ انویدیا به جنگ رقبا می‌رود

آمازون روز سه‌شنبه از محصولی جدید با نام «کارخانه‌های هوش مصنوعی» (AI Factories) رونمایی کرد که به شرکت‌ها و نهادهای دولتی اجازه می‌دهد سامانه‌های هوش مصنوعی آمازون را در دیتاسنترهای اختصاصی خودشان اجرا کنند. به‌گفتهٔ آمازون وب سرویسز (AWS)، در این مدل مشتری برق و زیرساخت دیتاسنتر را تأمین می‌کند و AWS کل سامانهٔ هوش مصنوعی را در محل نصب، راه‌اندازی و مدیریت کرده و در صورت نیاز آن را به سایر سرویس‌های ابری AWS متصل می‌کند.​

تحلیل
هدف اصلی این حرکت، پاسخ به دغدغهٔ «حاکمیت داده» است؛ یعنی سازمان‌هایی که می‌خواهند کنترل کامل روی داده‌های خود داشته باشند تا این داده‌ها در اختیار رقبای تجاری یا حتی دولت‌های خارجی قرار نگیرد. استقرار «کارخانهٔ هوش مصنوعی» به‌صورت آن‌پرمیسی به این معناست که سازمان‌ها مجبور نیستند داده‌های حساس خود را برای آموزش مدل‌ها به بیرون بفرستند و حتی سخت‌افزار اصلی نیز در مالکیت و کنترل محلی باقی می‌ماند.​

نام این محصول شاید برای فعالان این حوزه آشنا باشد، چون «کارخانهٔ هوش مصنوعی» در اصل برندی است که شرکت انویدیا برای سیستم‌های سخت‌افزاری قدرتمند خود به‌کار می‌برد؛ سیستم‌هایی که از کارت‌های گرافیک (GPU) تا شبکهٔ پرسرعت را برای اجرای مدل‌های هوش مصنوعی یک‌جا عرضه می‌کنند. محصول جدید AWS درواقع حاصل همکاری مشترک آمازون و انویدیا است و هر دو شرکت در اطلاعیه‌های رسمی بر این موضوع تأکید کرده‌اند.

در معماری این «کارخانهٔ هوش مصنوعی» ترکیبی از فناوری‌های آمازون و انویدیا به‌کار گرفته شده است. سازمان‌ها می‌توانند بین جدیدترین پردازنده‌های گرافیکی سری Blackwell انویدیا یا تراشهٔ اختصاصی Trainium3 آمازون برای آموزش مدل‌های هوش مصنوعی انتخاب کنند. در لایهٔ زیرساخت هم از شبکه، ذخیره‌سازی، پایگاه‌داده‌ها و سیستم‌های امنیتی توسعه‌یافته در AWS استفاده می‌شود و این پلتفرم می‌تواند به سرویس Amazon Bedrock (برای انتخاب و مدیریت مدل‌های پایه) و همچنین ابزار AWS SageMaker برای ساخت و آموزش مدل‌ها متصل شود.​

رقابت گسترده در عصر «کارخانه‌های هوش مصنوعی»

در این میدان اما آمازون تنها بازیگر بزرگ نیست و سایر غول‌های ابری هم به‌سرعت مشغول استقرار «کارخانه‌های هوش مصنوعی» مبتنی بر انویدیا هستند. مایکروسافت در ماه اکتبر نخستین سری از «کارخانه‌های هوش مصنوعی» خود را که در دیتاسنترهای جهانی این شرکت برای اجرای بارِ کاری OpenAI راه‌اندازی شده‌اند به نمایش گذاشت، هرچند در آن زمان صحبتی از ارائهٔ این زیرساخت‌ها به‌صورت ابر خصوصی برای مشتریان نشد. مایکروسافت به‌جای آن بیشتر روی استفاده از فناوری دیتاسنترهای انویدیا برای ساخت و اتصال «ابرکارخانه‌های هوش مصنوعی» خود تمرکز کرد؛ همان دیتاسنترهای بسیار پیشرفته‌ای که این شرکت در ایالت‌های ویسکانسن و جورجیا در حال ساخت آن است 

گزارش
مایکروسافت همچنین در ماه گذشته جزئیات برنامهٔ خود برای ساخت دیتاسنترها و ارائهٔ سرویس‌های ابری در کشورهای مختلف، با هدف پاسخ‌گویی به الزامات حاکمیت داده در اروپا را تشریح کرد. طبق اطلاعیهٔ رسمی مایکروسافت، بخشی از این راهکار شامل «Azure Local» است؛ سخت‌افزارهای مدیریت‌شدهٔ خود مایکروسافت که می‌توانند در محل دیتاسنتر یا سایت مشتری نصب شوند و نقش یک ابر محلی تحت کنترل سازمان را ایفا کنند

با کنار هم گذاشتن این تحولات، یک نکتهٔ جالب توجه برای فعالان حوزهٔ زیرساخت و کلود روشن می‌شود: موج هوش مصنوعی باعث شده بزرگ‌ترین ارائه‌دهندگان رایانش ابری دوباره به سرمایه‌گذاری سنگین روی دیتاسنترهای خصوصی سازمانی و معماری‌های «ابر ترکیبی» برگردند؛ فضایی که از نظر معماری، بسیاری را به یاد اوایل دههٔ ۲۰۱۰ و بحث‌های داغ «آن‌پرمیسی در برابر ابر عمومی» می‌اندازد. برای سازمان‌های بزرگ، از جمله آن‌هایی که با محدودیت‌های حاکمیتی یا تحریمی مواجه‌اند، این روند می‌تواند مسیری واقع‌بینانه برای بهره‌گیری از توان هوش مصنوعی در کنار حفظ کنترل حداکثری بر داده‌ها و زیرساخت باشد.

دسترسی سریع و ایمن به ابزارهای قدرتمند فناوری!
نویسنده
نویسنده

بیوگرافی در دسترس نیست.

{{ userMessage }}
در حال پردازش