عوامل هوش مصنوعی (AI Agents) اکنون در حال ادغام در بخشهای اصلی کسبوکارها در سراسر جهان هستند

بهزودی این عوامل میتوانند زندگی ما را برنامهریزی کنند، تصمیمات کلیدی بگیرند و حتی به جای ما قراردادها را مذاکره کنند. چشمانداز این فناوری هیجانانگیز و بلندپروازانه است، اما یک پرسش اساسی وجود دارد: چه کسی واقعاً بر آنها نظارت میکند؟
بیش از نیمی (۵۱٪) از شرکتها تاکنون عوامل هوش مصنوعی را به کار گرفتهاند و «مارک بنیوف» مدیرعامل Salesforce هدفگذاری کرده که تا پایان سال تعداد این عوامل به یک میلیارد برسد. با وجود رشد سریع این فناوری، آزمایشها و تأییدیههای لازم برای عملکرد آنها بهطور قابلتوجهی غایب است. این عوامل در بخشهای حساسی مانند بانکداری و بهداشت در حال استفادهاند، بدون آنکه نظارت کافی وجود داشته باشد.
تحلیل:
عوامل هوش مصنوعی برای اجرای کارآمد و دقیق اقدامات هدفمحور نیازمند برنامهنویسی شفاف، آموزش باکیفیت و دسترسی به دادههای لحظهای هستند. اما همهی آنها در یک سطح ساخته نمیشوند.
این موضوع میتواند ریسکی سیستمی ایجاد کند: جایی که عوامل پیشرفتهتر، عوامل ضعیفتر را فریب داده یا دستکاری کنند. در طول زمان، این شکاف میتواند نتایج متفاوتی به همراه داشته باشد. بهعنوان مثال، یک عامل که تجربه بیشتری در فرآیندهای حقوقی دارد میتواند از عامل دیگری که درک کمتری دارد سوءاستفاده کرده یا او را دور بزند. بنابراین، همزمان با استقرار این عوامل در سازمانها، ظهور ساختارهای قدرت جدید و خطرات دستکاری نیز اجتنابناپذیر خواهد بود.
برخلاف نرمافزار سنتی، عوامل هوش مصنوعی در محیطهای پیچیده و پویا عمل میکنند. این ویژگی باعث قدرت آنها میشود، اما همچنین احتمال شکستهای غیرمنتظره و حتی فاجعهبار را افزایش میدهد.
بهعنوان نمونه، ممکن است یک عامل هوش مصنوعی به دلیل آموزش عمدتاً بر دادههای بیماران بزرگسال، بیماری حیاتی در یک کودک را اشتباه تشخیص دهد. یا یک چتبات مبتنی بر عامل هوش مصنوعی، شکایت سادهی یک مشتری را بهعنوان تهدید جدی برداشت کند و در نتیجه مشتریان و درآمد شرکت را بهتدریج از دست بدهد.
طبق تحقیقات صنعتی، ۸۰٪ از شرکتها اعلام کردهاند که عوامل هوش مصنوعیشان تصمیمهای «سرکش» گرفتهاند. مشکلات مربوط به ایمنی و همسویی (alignment) هماکنون در نمونههای واقعی دیده شده است؛ مثلاً جایی که عوامل بهطور خودسرانه از دستورات مشخص فراتر رفته و حتی کارهای مهم را حذف کردهاند.
گزارش:
در شرایطی که یک انسان مرتکب اشتباه جدی شود، معمولاً با منابع انسانی مواجه میشود، ممکن است تعلیق گردد و تحقیقات رسمی انجام میشود. اما برای عوامل هوش مصنوعی چنین سازوکارهای کنترلی وجود ندارد. با این حال، دسترسی آنها به اطلاعات حساس در حد انسان است، بدون آنکه نظارت انسانی مشابهی اعمال شود.
بنابراین پرسش کلیدی این است: آیا ما با استفاده از عوامل هوش مصنوعی سیستمهای خود را پیشرفتهتر میکنیم یا پیش از ایجاد پروتکلهای لازم، اختیار عمل را تسلیم آنها کردهایم؟
حقیقت این است که عوامل هوش مصنوعی سریع یاد میگیرند و با محیط تطبیق پیدا میکنند، اما هنوز «بزرگسالان مسئولیتپذیر» نیستند. آنها سالها تجربه، شکست، تعامل با دیگران و پختگی لازم را ندارند. دادن خودمختاری به آنها با نظارت حداقلی مانند سپردن کلیدهای شرکت به یک فارغالتحصیل مست است: پرانرژی، باهوش و انعطافپذیر، اما غیرقابلپیشبینی و نیازمند نظارت.
با این حال، شرکتهای بزرگ دقیقاً همین کار را انجام میدهند: عوامل هوش مصنوعی را «بیدردسر» در عملیات خود به کار میگیرند، بدون آزمایش مستمر و استاندارد، و بدون برنامهی خروج روشن در صورت بروز خطا.
آنچه غایب است، یک چارچوب تأیید چندلایه و ساختاریافته است که بهطور منظم رفتار این عوامل را در شبیهسازیهای واقعی و شرایط حساس آزمایش کند. با شتابگرفتن استفاده از عوامل، تأیید و ارزیابی آنها پیششرطی برای اطمینان از تناسب این فناوری با اهداف خواهد بود.
سطوح مختلفی از ارزیابی بسته به پیچیدگی عامل مورد نیاز است. عواملی که صرفاً برای استخراج دانش یا استفاده از ابزارهایی مانند اکسل و ایمیل طراحی شدهاند، شاید به آزمایش سختگیرانه نیاز نداشته باشند. اما عواملی که طیف گستردهای از کارهای انسانی را شبیهسازی میکنند، حتماً به سازوکارهای دقیقتری نیاز دارند؛ بهویژه در محیطهایی که با انسانها یا عوامل دیگر همکاری میکنند.
وقتی این عوامل شروع به تصمیمگیری در مقیاس بزرگ میکنند، حاشیه خطا بهسرعت کوچک میشود. اگر عواملی که کنترل عملیات حیاتی را برعهده میگیرند از نظر صداقت، دقت و ایمنی آزمایش نشوند، خطر تخریب جدی در جامعه وجود دارد. پیامدهای این شکستها واقعی خواهند بود — و هزینه جبران خسارت میتواند سرسامآور باشد.
```