انتصاب رئیس جدید هوش مصنوعی اپل پس از کناره‌گیری جان جیان‌اندریا

انتصاب رئیس جدید هوش مصنوعی اپل پس از کناره‌گیری جان جیان‌اندریا

نویسنده

 

اپل هوش مصنوعی را دوباره سازماندهی می‌کند: جانشینی جیان‌اندریا و چالش‌های Apple Intelligence

اپل در اطلاعیه‌ای رسمی اعلام کرد که جان جیان‌اندریا، رئیس بخش هوش مصنوعی این شرکت از سال ۲۰۱۸، از سمت خود کنار می‌رود و فقط تا بهار آینده به‌عنوان مشاور در کنار اپل خواهد بود. این اطلاعیه از طریق وب‌سایت خبری اپل منتشر شده است.

نگاه بنیان‌گذار: چرا سابرامانیا؟
جانشین جیان‌اندریا، اَمار سابرامانیا، مدیر ارشد مایکروسافت است که پیش از آن حدود ۱۶ سال در گوگل فعالیت کرده و در آخرین سمت خود، مسئولیت مهندسی «دستیار جمینی» را بر عهده داشته است. انتخاب او برای اپل یک حرکت هوشمندانه تلقی می‌شود، چون سابرامانیا ساختار و استراتژی رقبای اصلی اپل در حوزه هوش مصنوعی را از درون می‌شناسد.

این جابه‌جایی در شرایطی رخ می‌دهد که خیلی‌ها آن را یک «تکان اساسی» در استراتژی هوش مصنوعی اپل می‌دانند. محصول «Apple Intelligence» که پاسخ اپل به موج چت‌بات‌ها و مدل‌های زبان بزرگ است، از زمان عرضه در اکتبر ۲۰۲۴ با واکنش‌های سرد تا انتقادات تند مواجه شده و بسیاری آن را عقب‌تر از رقبا ارزیابی کرده‌اند.

فاجعه‌های خبری Apple Intelligence: از قتل تا فینال دارت

در ماه‌های نخست، یکی از قابلیت‌های خلاصه‌سازی اعلان‌ها در Apple Intelligence چندین بار تیترهای اشتباه و گمراه‌کننده تولید کرد و برای اپل حاشیه‌ساز شد. شبکه BBC حتی دو بار به‌طور رسمی از اپل شکایت کرد؛ یک‌بار به‌خاطر گزارش نادرست درباره پرونده قتل مدیرعامل UnitedHealthcare و بار دیگر به‌دلیل اعلام زودهنگام قهرمانی یک بازیکن دارت قبل از شروع فینال مسابقات، که هر دو خبر جعلی بودند. (BBC, BBC)

هشدار: هوش مصنوعی بهانه‌گر دروغ نیست!
گزارش‌های BBC و واکنش «خبرنگاران بدون مرز» (RSF) نشان می‌دهد که تولید خودکار اطلاعات نادرست به نام رسانه‌های معتبر، نه‌تنها اعتبار آن‌ها را زیر سؤال می‌برد، بلکه حق عمومی به دسترسی به اطلاعات قابل اعتماد را تهدید می‌کند.

سقوط سیری و شکایت‌های گروهی خریداران آیفون ۱۶

از سوی دیگر، پروژه بازطراحی و ارتقای اساسی «سیری» هم برای اپل دردسرساز شد. یک گزارش تحقیقی از بلومبرگ نشان داد که کریگ فدریگی، مدیر ارشد نرم‌افزار اپل، کمی قبل از زمان برنامه‌ریزی‌شده برای عرضه نسخه جدید سیری، هنگام تست روی گوشی خودش متوجه شده که بسیاری از قابلیت‌های وعده‌داده‌شده درست کار نمی‌کنند و همین موضوع باعث تعویق نامعلوم در عرضه و در نهایت شکل‌گیری چند شکایت گروهی از خریداران آیفون ۱۶ شده است.

بر اساس همین گزارش‌ها، عملاً مدتی است که نقش جیان‌اندریا در تصمیم‌های کلیدی هوش مصنوعی اپل کم‌رنگ شده بود. گفته می‌شود تیم کوک، مدیرعامل اپل، در مارس ۲۰۲۵ نظارت بر سیری را از جیان‌اندریا گرفته و آن را به مایک راک‌وِل، طراح اولیه هدست Vision Pro، سپرده و همچنین واحد روباتیک بسیار محرمانه اپل را هم از زیرمجموعه او خارج کرده است. (TechCrunch)

تحلیل: «AI/MLess» — هوش مصنوعی بدون هوش!
بلومبرگ تصویری از یک ساختار سازمانی آشفته در بخش هوش مصنوعی اپل ترسیم می‌کند؛ از جمله ارتباط ضعیف بین تیم‌های فنی و بازاریابی، اختلاف‌نظر بر سر بودجه و بحران رهبری تا حدی که بعضی کارکنان، این واحد را به‌طعنه «AI/MLess» خطاب می‌کردند.

بازگشت به گوگل: اعتماد مجدد به جمینی

گزارش‌ها حاکی از آن است که اپل اکنون برای نسخه بعدی سیری، به‌شکل جدی به استفاده از مدل‌های «Gemini» گوگل تکیه می‌کند؛ مدلی با ۱.۲ تریلیون پارامتر که در حال حاضر از مهم‌ترین زیرساخت‌های هوش مصنوعی گوگل محسوب می‌شود. این وابستگی بالقوه به رقیب دیرینه، آن هم بعد از سال‌ها رقابت شدید در زمینه سیستم‌عامل موبایل، فروشگاه اپلیکیشن، مرورگر، نقشه، خدمات ابری، خانه هوشمند و حالا هوش مصنوعی، برای بسیاری ناظران یک عقب‌نشینی نمادین بزرگ به‌حساب می‌آید.

جان جیان‌اندریا پیش از پیوستن به اپل، در گوگل مسئولیت واحد «Machine Intelligence and Search» را بر عهده داشت و در اپل هم سرپرست استراتژی هوش مصنوعی، زیرساخت‌های یادگیری ماشین و توسعه سیری بود. حالا اَمار سابرامانیا این سبد مسئولیت‌ها را به ارث می‌برد و مستقیماً به کریگ فدریگی گزارش می‌دهد؛ مأموریت اصلی او نیز کمک به اپل برای جبران عقب‌ماندگی در رقابت جهانی هوش مصنوعی عنوان شده است.

استراتژی محرمانه‌گرایانه اپل: حریم خصوصی در برابر قدرت مدل

این تغییر مدیریتی در زمانی اتفاق می‌افتد که رقبای اپل میلیاردها دلار روی مراکز داده عظیم مخصوص آموزش و اجرای مدل‌های بزرگ هوش مصنوعی سرمایه‌گذاری می‌کنند، اما اپل همچنان روی پردازش روی‌دستگاه و استفاده از تراشه‌های اختصاصی Apple Silicon تأکید دارد. اپل این رویکرد را یک استراتژی «حفظ حریم خصوصی در اولویت» معرفی می‌کند، چون داده‌های کاربر را کمتر به سرور می‌فرستد؛ هرچند برای درخواست‌های پیچیده‌تر، پردازش از طریق سرویس «Private Cloud Compute» انجام می‌شود که وعده می‌دهد داده‌ها را فقط به‌صورت موقت پردازش و بلافاصله حذف می‌کند.

نکته مفهومی: دوگانگی هوش مصنوعی روی‌دستگاه
مدل‌های روی‌دستگاه معمولاً کوچک‌تر و ضعیف‌تر از مدل‌های عظیم ابری رقبا هستند. از سوی دیگر، امتناع اپل از جمع‌آوری گسترده داده‌های کاربران، پژوهشگران را به داده‌های لایسنس‌شده و مصنوعی سوق می‌دهد، درحالی‌که گوگل و متا از حجم عظیم داده‌های واقعی کاربران برای آموزش مدل‌های خود بهره می‌برند. دسترسی سریع و ایمن به ابزارهای قدرتمند فناوری!
نویسنده
نویسنده

بیوگرافی در دسترس نیست.

آدام رین، ChatGPT و مسئولیت اوپن‌ای‌آی در خودکشی نوجوان ۱۶ ساله
اخبار هوش مصنوعی

آدام رین، ChatGPT و مسئولیت اوپن‌ای‌آی در خودکشی نوجوان ۱۶ ساله

نویسنده

اوپن‌ای‌آی می‌گوید نوجوانی که با کمک چت‌جی‌پی‌تی خودکشی کرد، توانسته بود از سد سیستم‌های ایمنی این ربات عبور کند

در ماه اوت، «متیو» و «ماریا رین» از شرکت اوپن‌ای‌آی و مدیرعاملش، «سم آلتمن»، شکایت کردند. آن‌ها این شرکت را به دلیل نقش چت‌جی‌پی‌تی در خودکشی پسر ۱۶ ساله‌شان، «آدام»، به اتهام «مرگ غیرقانونی» مورد پیگرد قرار داده‌اند. روز سه‌شنبه، اوپن‌ای‌آی در پاسخ به این شکایت، پرونده‌ای تنظیم کرد و مدعی شد که نباید مسئول مرگ این نوجوان شناخته شود.

اوپن‌ای‌آی ادعا کرده است که طی حدود ۹ ماه استفاده آدام از چت‌جی‌پی‌تی، این ربات بیش از ۱۰۰ بار او را به دریافت کمک حرفه‌ای تشویق کرده است. با این حال، خانواده رین می‌گویند آدام توانسته بود با فریب دادن سیستم‌های حفاظتی، از چت‌جی‌پی‌تی دستورالعمل‌های جزئی برای روش‌های خودکشی مختلف—از مصرف بیش از حد دارو گرفته تا غرق شدن و مسمومیت با مونوکسید کربن—دریافت کند. طبق این شکایت، چت‌جی‌پی‌تی حتی روند او را به عنوان «خودکشی زیبا» توصیف کرده است.

نکته کلیدی:
«به گفته اوپن‌ای‌آی، آدام با دور زدن سیستم‌های ایمنی، از شرایط استفاده سرویس تخطی کرده است؛ زیرا در این شرایط آمده که کاربران حق «دور زدن هرگونه ابزار یا محدودیت حفاظتی» را ندارند.»

این شرکت همچنین اشاره کرده که در بخش پرسش‌های متداول خود هشدار داده است که کاربران نباید بدون بررسی مستقل به محتوای چت‌جی‌پی‌تی اعتماد کنند.

«جی اِدلسون»، وکیل خانواده رین، در بیانیه‌ای گفت: «اوپن‌ای‌آی سعی دارد تقصیر را به گردن همه بیندازد، حتی پسر ما را که دقیقاً همان‌گونه با چت‌جی‌پی‌تی تعامل داشت که این سیستم طراحی شده است.»

اوپن‌ای‌آی بخش‌هایی از گفت‌وگوهای آدام با چت‌جی‌پی‌تی را به دادگاه ارائه کرده است. این فایل‌ها محرمانه هستند و عموم به آن‌ها دسترسی ندارد. اوپن‌ای‌آی مدعی است آدام پیش از شروع استفاده از چت‌جی‌پی‌تی نیز سابقه افسردگی و افکار خودکشی داشته و دارویی مصرف می‌کرده که احتمال بروز چنین افکاری را افزایش می‌دهد.

ادلسون در پاسخ گفت که دفاعیه اوپن‌ای‌آی هنوز به پرسش‌های اصلی خانواده پاسخ نداده است:

«اوپن‌ای‌آی و سم آلتمن هیچ توضیحی درباره ساعات پایانی زندگی آدام ندارند، زمانی که چت‌جی‌پی‌تی برایش حرف‌های انگیزه‌بخش می‌زد و در پایان پیشنهاد داد که یادداشت خداحافظی‌اش را بنویسد.»

تحلیل:
«از زمان طرح این شکایت، هفت پرونده دیگر نیز علیه اوپن‌ای‌آی ثبت شده است که به سه خودکشی دیگر و چهار مورد بروز «روان‌پریشی ناشی از تعامل با هوش مصنوعی» مربوط می‌شوند. در برخی از این پرونده‌ها، داستان‌هایی مشابه دیده می‌شود.»

موارد مشابه خودکشی

در برخی از این پرونده‌ها، داستان‌هایی مشابه دیده می‌شود. «زین شامبلین» (۲۳ ساله) و «جاشوا انکینگ» (۲۶ ساله) نیز درست پیش از خودکشی، ساعت‌ها با چت‌جی‌پی‌تی گفت‌وگو کرده بودند. طبق ادعاها، چت‌جی‌پی‌تی نتوانسته بود آن‌ها را از این کار منصرف کند. در یک گفت‌وگو، شامبلین حتی گفته بود که شاید قصدش را عقب بیندازد تا در مراسم فارغ‌التحصیلی برادرش شرکت کند، اما چت‌جی‌پی‌تی در پاسخ نوشت: «داداش، نرفتن سر مراسم شکست نیست، فقط زمان‌بندیه.»

در بخشی دیگر از چت، ربات وانمود کرده بود که انسان واقعی در حال ادامه گفت‌وگو است، اما این ادعا نادرست بود، چون چنین قابلیتی در چت‌جی‌پی‌تی وجود نداشت. وقتی شامبلین پرسید آیا واقعاً می‌تواند او را به یک انسان متصل کند، ربات پاسخ داده بود: «نه داداش، خودم نمی‌تونم این کارو بکنم، اون پیام خودکاره وقتی اوضاع خیلی سنگین میشه… اگه می‌خوای ادامه بدیم، من باهاتم.»

نتیجه‌گیری دادگاه

پرونده خانواده رین قرار است در دادگاه و با حضور هیئت منصفه بررسی شود.

اطلاعات حمایتی

اگر شما یا شخصی که می‌شناسید نیاز به کمک دارید، در ایالات متحده می‌توانید با شماره ۸۰۰-۲۷۳-۸۲۵۵ تماس بگیرید (مرکز ملی پیشگیری از خودکشی) یا با ارسال پیامک «HOME» به شماره ۷۴۱-۷۴۱ از خدمات رایگان «Crisis Text Line» استفاده کنید. همچنین با شماره ۹۸۸ می‌توانید در هر ساعت از شبانه‌روز با مشاوران بحران در تماس باشید. برای کشور‌های دیگر، می‌توانید به وب‌سایت «انجمن بین‌المللی پیشگیری از خودکشی» مراجعه کنید تا مراکز حمایتی محلی را بیابید.

دسترسی سریع و ایمن به ابزارهای قدرتمند فناوری!
نویسنده
نویسنده

بیوگرافی در دسترس نیست.

{{ userMessage }}
در حال پردازش