پیش‌نمایش سه عامل هوش مصنوعی Frontier آمازون؛ از Kiro تا عامل امنیت و DevOps

پیش‌نمایش سه عامل هوش مصنوعی Frontier آمازون؛ از Kiro تا عامل امنیت و DevOps

نویسنده

 

آمازون سه عامل هوش مصنوعی «فرانتیر» را معرفی کرد؛ از Kiro که می‌تواند روزها خودش کدنویسی کند تا عامل امنیت و DevOps

شرکت «آمازون وب سرویسز (AWS)» در رویداد AWS re:Invent امسال، پیش‌نمایش سه عامل هوش مصنوعی جدید را با عنوان Frontier Agents ارائه کرد؛ عامل‌هایی که برای خودکارسازی عمیق چرخهٔ توسعه نرم‌افزار، امنیت و عملیات طراحی شده‌اند. این سه عامل شامل «Kiro autonomous agent» برای توسعه نرم‌افزار، «AWS Security Agent» برای امنیت و «AWS DevOps Agent» برای عملیات و پایش سیستم‌ها هستند.

نگاه بنیان‌گذار
Frontier Agents نه یک دستیار، بلکه «عضو مجازی تیم» هستند که می‌توانند هدف‌های پیچیده را بدون نظارت مداوم انسانی، حتی برای روزها، پیش ببرند.

«مت گارمن، مدیرعامل AWS (Matt Garman, CEO of AWS)» هنگام معرفی این محصولات توضیح داد که Frontier Agents قرار است نه صرفاً یک دستیار، بلکه نقش «عضو مجازی تیم» را بازی کنند؛ یعنی بتوان به آن‌ها هدف‌های پیچیده سپرد و عامل‌ها خودشان مسیر انجام کار را پیدا کنند. این عامل‌ها به‌گونه‌ای طراحی شده‌اند که در مقیاس بزرگ کار کنند، چند تسک را هم‌زمان پیش ببرند و برای «ساعت‌ها یا حتی روزها» بدون نیاز به دخالت انسانی مداوم فعال بمانند.

Kiro: عامل خودکار توسعه‌دهنده

عامل «Kiro autonomous agent» نسخهٔ پیشرفته‌تری از ابزار کدنویسی Kiro است که AWS چند ماه قبل معرفی کرده بود و حالا می‌تواند بر اساس مفهوم «توسعه مبتنی‌بر مشخصات (spec-driven development)» کار کند. Kiro در حین کدنویسی، از توسعه‌دهندگان می‌خواهد فرضیات و تصمیم‌های کلیدی را تأیید یا اصلاح کنند و با این روش، به‌مرور یک مستند مشخصات دقیق برای پروژه می‌سازد تا در ادامه بتواند به‌صورت خودکار و مطابق استانداردهای همان تیم، کد عملیاتی تولید کند.

به‌گفتهٔ AWS، Kiro الگوی کاری تیم را از روی کدهای موجود، ابزارهای مورد استفاده و تاریخچهٔ تغییرات یاد می‌گیرد و «کانتکست پایدار» را در طول جلسات مختلف حفظ می‌کند؛ یعنی در میانهٔ مسیر فراموش نمی‌کند که قرار بوده چه کاری انجام شود. در عمل، مدیر یا رهبر تیم می‌تواند یک وظیفهٔ سنگین مثل به‌روزرسانی یک بخش حساس از کد که در «۱۵» سرویس مختلف استفاده شده را به Kiro بسپارد تا با یک تسک، همهٔ این موارد را شناسایی و اصلاح کند، بدون آن‌که لازم باشد برای هر مورد جداگانه دستور صادر شود.

تحلیل
Kiro با یادگیری از سبک کدنویسی تیم و حفظ "کانتکست پایدار"، می‌تواند کارهای پیچیده‌ای مانند به‌روزرسانی همزمان ۱۵ سرویس را با یک دستور به‌خوبی انجام دهد.

امنیت و DevOps هوشمند

عامل دوم یعنی «AWS Security Agent» نقش یک کارشناس امنیت نرم‌افزار مجازی را بازی می‌کند که از مرحلهٔ طراحی معماری تا بازبینی کد و حتی شبیه‌سازی تست نفوذ، کنار تیم توسعه حضور دارد. این عامل می‌تواند در حین کدنویسی، آسیب‌پذیری‌ها را تشخیص دهد، راهکارهای رفع آن‌ها را پیشنهاد کند و به سازمان‌ها کمک کند نرم‌افزارهای ایمن‌تری بسازند؛ موضوعی که برای سازمان‌های مالی، دولتی و استارتاپ‌های حساس به داده اهمیت ویژه‌ای دارد.

نکته مفهومی
AWS Security Agent، امنیت را از «مرحلهٔ واکنش» به «مرحلهٔ پیشگیری فعال» در طول چرخهٔ توسعه ارتقا می‌دهد.

سومین عضو این مجموعه، «AWS DevOps Agent» است که تمرکز آن روی عملیات و پایش مداوم نرم‌افزار است و به‌عنوان یک عضو مجازی تیم DevOps عمل می‌کند. این عامل وظایفی مانند تحلیل لاگ‌ها، شناسایی زودهنگام خطاها قبل از انتشار نسخهٔ جدید، پایش عملکرد سرویس‌ها و پیشنهاد بهبود برای پایداری و مقیاس‌پذیری را خودکار می‌کند تا از قطعی‌های پرهزینه و افت کیفیت خدمت جلوگیری شود.

AWS اعلام کرده این سه Frontier Agent در حال حاضر به‌صورت نسخهٔ پیش‌نمایش برای مشتریان قابل دسترس است و در کنار سایر سرویس‌های هوش مصنوعی این شرکت، مثل Amazon Bedrock و AgentCore، مسیر حرکت به‌سمت «توسعهٔ عامل‌محور» در سازمان‌ها را هموار می‌کند. این رویکرد برای تیم‌های توسعه در سراسر جهان، از جمله شرکت‌های نرم‌افزاری ایرانی که با کمبود نیروی متخصص مواجه‌اند، می‌تواند الهام‌بخش باشد تا بخشی از کارهای تکراری توسعه، امنیت و DevOps را به عامل‌های خودکار بسپارند و تمرکز خود را روی طراحی محصول و نوآوری بگذارند.

دسترسی سریع و ایمن به ابزارهای قدرتمند فناوری!
نویسنده
نویسنده

بیوگرافی در دسترس نیست.

آمازون با «AI Factories» مبتنی بر Nvidia در دیتاسنترهای داخلی، رقبا را به چالش می‌کشد.
اخبار هوش مصنوعی

آمازون با «AI Factories» مبتنی بر Nvidia در دیتاسنترهای داخلی، رقبا را به چالش می‌کشد.

نویسنده

 

آمازون با «کارخانه‌های هوش مصنوعی» آن‌پرمیزیِ انویدیا به جنگ رقبا می‌رود

آمازون روز سه‌شنبه از محصولی جدید با نام «کارخانه‌های هوش مصنوعی» (AI Factories) رونمایی کرد که به شرکت‌ها و نهادهای دولتی اجازه می‌دهد سامانه‌های هوش مصنوعی آمازون را در دیتاسنترهای اختصاصی خودشان اجرا کنند. به‌گفتهٔ آمازون وب سرویسز (AWS)، در این مدل مشتری برق و زیرساخت دیتاسنتر را تأمین می‌کند و AWS کل سامانهٔ هوش مصنوعی را در محل نصب، راه‌اندازی و مدیریت کرده و در صورت نیاز آن را به سایر سرویس‌های ابری AWS متصل می‌کند.​

تحلیل
هدف اصلی این حرکت، پاسخ به دغدغهٔ «حاکمیت داده» است؛ یعنی سازمان‌هایی که می‌خواهند کنترل کامل روی داده‌های خود داشته باشند تا این داده‌ها در اختیار رقبای تجاری یا حتی دولت‌های خارجی قرار نگیرد. استقرار «کارخانهٔ هوش مصنوعی» به‌صورت آن‌پرمیسی به این معناست که سازمان‌ها مجبور نیستند داده‌های حساس خود را برای آموزش مدل‌ها به بیرون بفرستند و حتی سخت‌افزار اصلی نیز در مالکیت و کنترل محلی باقی می‌ماند.​

نام این محصول شاید برای فعالان این حوزه آشنا باشد، چون «کارخانهٔ هوش مصنوعی» در اصل برندی است که شرکت انویدیا برای سیستم‌های سخت‌افزاری قدرتمند خود به‌کار می‌برد؛ سیستم‌هایی که از کارت‌های گرافیک (GPU) تا شبکهٔ پرسرعت را برای اجرای مدل‌های هوش مصنوعی یک‌جا عرضه می‌کنند. محصول جدید AWS درواقع حاصل همکاری مشترک آمازون و انویدیا است و هر دو شرکت در اطلاعیه‌های رسمی بر این موضوع تأکید کرده‌اند.

در معماری این «کارخانهٔ هوش مصنوعی» ترکیبی از فناوری‌های آمازون و انویدیا به‌کار گرفته شده است. سازمان‌ها می‌توانند بین جدیدترین پردازنده‌های گرافیکی سری Blackwell انویدیا یا تراشهٔ اختصاصی Trainium3 آمازون برای آموزش مدل‌های هوش مصنوعی انتخاب کنند. در لایهٔ زیرساخت هم از شبکه، ذخیره‌سازی، پایگاه‌داده‌ها و سیستم‌های امنیتی توسعه‌یافته در AWS استفاده می‌شود و این پلتفرم می‌تواند به سرویس Amazon Bedrock (برای انتخاب و مدیریت مدل‌های پایه) و همچنین ابزار AWS SageMaker برای ساخت و آموزش مدل‌ها متصل شود.​

رقابت گسترده در عصر «کارخانه‌های هوش مصنوعی»

در این میدان اما آمازون تنها بازیگر بزرگ نیست و سایر غول‌های ابری هم به‌سرعت مشغول استقرار «کارخانه‌های هوش مصنوعی» مبتنی بر انویدیا هستند. مایکروسافت در ماه اکتبر نخستین سری از «کارخانه‌های هوش مصنوعی» خود را که در دیتاسنترهای جهانی این شرکت برای اجرای بارِ کاری OpenAI راه‌اندازی شده‌اند به نمایش گذاشت، هرچند در آن زمان صحبتی از ارائهٔ این زیرساخت‌ها به‌صورت ابر خصوصی برای مشتریان نشد. مایکروسافت به‌جای آن بیشتر روی استفاده از فناوری دیتاسنترهای انویدیا برای ساخت و اتصال «ابرکارخانه‌های هوش مصنوعی» خود تمرکز کرد؛ همان دیتاسنترهای بسیار پیشرفته‌ای که این شرکت در ایالت‌های ویسکانسن و جورجیا در حال ساخت آن است 

گزارش
مایکروسافت همچنین در ماه گذشته جزئیات برنامهٔ خود برای ساخت دیتاسنترها و ارائهٔ سرویس‌های ابری در کشورهای مختلف، با هدف پاسخ‌گویی به الزامات حاکمیت داده در اروپا را تشریح کرد. طبق اطلاعیهٔ رسمی مایکروسافت، بخشی از این راهکار شامل «Azure Local» است؛ سخت‌افزارهای مدیریت‌شدهٔ خود مایکروسافت که می‌توانند در محل دیتاسنتر یا سایت مشتری نصب شوند و نقش یک ابر محلی تحت کنترل سازمان را ایفا کنند

با کنار هم گذاشتن این تحولات، یک نکتهٔ جالب توجه برای فعالان حوزهٔ زیرساخت و کلود روشن می‌شود: موج هوش مصنوعی باعث شده بزرگ‌ترین ارائه‌دهندگان رایانش ابری دوباره به سرمایه‌گذاری سنگین روی دیتاسنترهای خصوصی سازمانی و معماری‌های «ابر ترکیبی» برگردند؛ فضایی که از نظر معماری، بسیاری را به یاد اوایل دههٔ ۲۰۱۰ و بحث‌های داغ «آن‌پرمیسی در برابر ابر عمومی» می‌اندازد. برای سازمان‌های بزرگ، از جمله آن‌هایی که با محدودیت‌های حاکمیتی یا تحریمی مواجه‌اند، این روند می‌تواند مسیری واقع‌بینانه برای بهره‌گیری از توان هوش مصنوعی در کنار حفظ کنترل حداکثری بر داده‌ها و زیرساخت باشد.

دسترسی سریع و ایمن به ابزارهای قدرتمند فناوری!
نویسنده
نویسنده

بیوگرافی در دسترس نیست.

{{ userMessage }}
در حال پردازش