معمای مصلح: کریس لیهنه و مأموریت غیرممکن OpenAI
کریس لیهنه یکی از بهترین افراد صنعت در پنهان کردن خبرهای بد است. او در دوران کلینتون، دستیار رسانهای آل گور بود و در Airbnb، مدیر بحرانی بود که از هر گونه مشکل قانونی از اینجا تا بروکسل را مدیریت کرد — لیهنه میداند چگونه چیزها را بچرخاند. اکنون دو سال است که در شغلی شاید غیرممکنتر از همه مشغول است: به عنوان معاون سیاست جهانی OpenAI، کار او این است که جهان را متقاعد کند OpenAI واقعاً به دموکراتیزه کردن هوش مصنوعی اهمیت میدهد، در حالی که شرکت بیشتر رفتاری مانند تمام شرکتهای فناوری دیگری که همیشه ادعا کردهاند متفاوت هستند، از خود نشان میدهد.
من ۲۰ دقیقه وقت داشتم تا با او در کنفرانس Elevate در تورنتو صحبت کنم — ۲۰ دقیقه برای گذشتن از مسائل از پیش تعیین شده و رسیدن به تناقضهای واقعی که تصویر به دقت ساخته شده OpenAI را میگیرد. کار آسانی نبود یا کاملاً موفق نبود. لیهنه واقعاً در کارش خوب است. او قابل دوستی است. صدایش معقول است. او ابهام را میپذیرد. او حتی در مورد اینکه چگونه در ۳ صبح بیدار میشود و نگران این است که آیا این کارها واقعاً به نفع بشریت خواهد بود، صحبت میکند.
مشکل Sora و شخصیتهای متوفی
اما نیتهای خوب وقتی خیلی معنا ندارد که شرکت شما از منتقدان استناد میکند، مناطق کمبرخوردار اقتصادی را از آب و برق خالی میکند و شخصیتهای متوفی را زنده میکند تا برتری خود در بازار را نشان دهد.
مشکل Sora در واقع ریشه تمام مسائل دیگر است. ابزار تولید ویدیو که هفته گذشته معرفی شد، به نظر محتوای محفوظ شده را در خود داشت. این یک حرکت جسورانه برای شرکتی بود که قبلاً توسط نیویورک تایمز، تورنتو استار و نیمی از صنعت نشر متهم به سوءاستفاده شده بود. از دیدگاه تجاری و بازاریابی، این کار هوشمندانه بود. اپلیکیشن محدود به دعوت، به بالای فروشگاه اپلیکیشنها صعود کرد، زیرا مردم نسخههای دیجیتالی از خودشان، مدیرعامل OpenAI، سام آلتمن، شخصیتهایی مانند پیکاچو و کارتمن «سات پارک»، و شخصیتهای متوفی مانند توپاک شاکور را ایجاد کردند.
«چیزی که او از آن دوری کرد این بود که OpenAI ابتدا به دارندگان حقوق اجازه داد تا از استفاده کارشان برای آموزش Sora انصراف دهند، که معمولاً نحوه کاربرد حق تکثیر نیست. سپس، پس از اینکه OpenAI متوجه شد مردم از استفاده از تصاویر محفوظ لذت میبرند، به مدلی تغییر داد که از قبل اجازه داده میشود. این تکرار نیست، این آزمایش است که چه میزان میتوانید بدون مجازات عمل کنید.»
وقتی از او پرسیده شد چه چیزی OpenAI را تشویق کرده تا این نسخه جدید Sora را با این شخصیتها معرفی کند، لیهنه گفت Sora یک فناوری چند منظوره است، مانند چاپگر، که خلاقیت را برای افراد بدون استعداد یا منابع دموکراتیزه میکند. حتی خود او که خودش را یک صفر خلاق توصیف میکند، اکنون میتواند ویدیو بسازد، گفت.
نگرانیهای حقوقی و داخلی
طبیعتاً، این وضعیت یادآور ناراحتی ناشرانی است که OpenAI را متهم میکنند که بدون اشتراک در سود، کارشان را برای آموزش استفاده کرده است. وقتی من از لیهنه در مورد اینکه ناشران از اقتصاد خارج شدهاند، پرسیدم، او از حق استفاده عادلانه یاد کرد، اصل حقوقی آمریکایی که باید حقوق خالق را با دسترسی عمومی به دانش متعادل کند. او آن را سلاح مخفی تسلط فناوری آمریکا نامید.
شاید. اما من اخیراً با آل گور مصاحبه کردم — رئیس سابق لیهنه — و فهمیدم که هر کسی میتواند سادهترین چیز را از ChatGPT بخواهد به جای خواندن مقاله من در TechCrunch. «این تکراری است» گفتم، «اما همچنین جایگزینی است.»
لیهنه گوش کرد و دیگر حرف نزد. «همه ما باید این را حل کنیم» گفت. «واقعاً ساده و سطحی است که در اینجا روی صحنه بنشینیم و بگوییم باید مدلهای درآمدی جدید پیدا کنیم. اما فکر میکنم ما این کار را خواهیم کرد.» (چیزی که من شنیدم این بود: «ما در حال ساختن راه است.»)
مسئله زیرساخت و جوامع کمبرخوردار
سپس مسئله زیرساختی وجود دارد که کسی نمیخواهد صادقانه پاسخ دهد. OpenAI اکنون یک دانشگاه مراکز داده در آبیلن، تگزاس، اداره میکند و اخیراً در لوردستون، اوهایو، در همکاری با اوراکل و سافتبنک، یک مرکز داده بزرگ راهاندازی کرده است. لیهنه از پذیرش هوش مصنوعی به عنوان ورود برق یاد کرده است — گفت کسانی که دیرتر به آن دسترسی یافتند هنوز در حال جبران هستند — اما پروژه Stargate OpenAI به نظر میرسد در همان مناطق کمبرخوردار اقتصادی برای راهاندازی مراکز با نیازهای عظیم به آب و برق هدف قرار گرفته است.
وقتی از او در ملاقات ما پرسیده شد که آیا این جوامع سود خواهند برد یا فقط هزینهها را پرداخت خواهند کرد، لیهنه به گیگاواتها و ژئوپلیتیک پرداخت. OpenAI به حدود یک گیگاوات انرژی در هفته نیاز دارد، گفت. چین سال گذشته ۴۵۰ گیگاوات علاوه بر ۳۳ تأسیسات هستهای راهاندازی کرد. اگر دموکراسیها میخواهند هوش مصنوعی دموکراتیک داشته باشند، باید رقابت کنند. «بهینهبینی من میگوید این کار سیستمهای انرژی ما را مدرن خواهد کرد،» گفت و تصویری از آمریکای بازساخته شده با شبکههای برقی دگرگون ترسیم کرد.
این الهامبخش بود، اما پاسخی در مورد اینکه آیا مردم لوردستون و آبیلن قیمت خدمات خود را در حالی که OpenAI ویدیوهایی از The Notorious B.I.G. تولید میکند، افزایش خواهند دید نبود. این قابل توجه است که تولید ویدیو انرژیبرترین هوش مصنوعی است.
همچنین هزینه انسانی وجود دارد، که روز قبل از مصاحبه ما زندا ویلیامز در اینستاگرام وارد شد و از افراد ناشناس خواست تا دیگر ویدیوهای تولید شده هوش مصنوعی از پدر متوفیاش، رابین ویلیامز، را برایش نفرستند. «شما هن نمیسازید،» نوشت. «شما کالباسهای وحشتناک و پرپردازش از زندگی انسانها میسازید.»
واکنش کارکنان OpenAI
وقتی از من در مورد نحوه تطبیق این آسیب شخصی با مأموریت شرکت پرسیده شد، لیهنه با صحبت در مورد فرآیندها، از جمله طراحی مسئولانه، چارچوبهای آزمایشی و همکاریهای دولتی، پاسخ داد. «برای این چیزها دستورالعملی وجود ندارد، درست است؟»
در برخی لحظات لیهنه آسیبپذیری نشان داد و گفت که مسئولیتهای بزرگی که با تمام کارهای OpenAI همراه است را درک میکند.
چه این لحظات برای مخاطب طراحی شده باشند یا نه، من به او باور دارم. در واقع، من تورنتو را ترک کردم و فکر کردم یک کلاس عالی از پیامرسانی سیاسی را دیدهام — لیهنه یک سوزن غیرممکن را از میان میگذراند و از سؤالات در مورد تصمیمات شرکت که ممکن است با آنها هم نظر نباشد، دوری میکند. سپس خبری شکل گرفت که این تصویر پیچیده را پیچیدهتر کرد.
ناتان کالوین، وکیلی که در یک سازمان غیرانتفاعی تحت عنوان Encode AI سیاست هوش مصنوعی را پیگیری میکند، آشکار کرد که همان زمانی که من با لیهنه در تورنتو صحبت میکردم، OpenAI یک نفر از پلیس شهرستان را به خانه کالوین در واشنگتن دی.سی. فرستاد تا یک فراخوان را در زمان شام به او بدهد. آنها پیامهای خصوصی او با قانونگذاران کالیفرنیا، دانشجویان دانشگاه و کارکنان سابق OpenAI را میخواستند.
«اما چیزی که بیشتر اهمیت دارد این است که حتی خود کارکنان OpenAI نسبت به آنچه در حال تبدیل شدن به آن هستند، نگران هستند. همانطور که همکار من، مکس، هفته گذشته گزارش داد، تعدادی از کارکنان فعلی و سابق پس از انتشار Sora 2 به رسانههای اجتماعی رفتند و نگرانیهای خود را بیان کردند.»
از جمله بوآز باراک، یک محقق OpenAI و استاد دانشگاه هاروارد، که در مورد Sora 2 نوشت: «از نظر فنی شگفتانگیز است اما هنوز خیلی زود است که خود را در مورد جلوگیری از مشکلات دیگر اپلیکیشنهای رسانههای اجتماعی و ویدیوهای جعلی تبریک بگوییم.»
در جمعه، جاش آچیام — رئیس تطابق مأموریت OpenAI — چیزی حتی قابل توجهتر در مورد ادعا کالوین توییت کرد. با پیشگفتاری که گفت «احتمالاً خطری برای کل شغل من است،» آچیام ادامه داد: «ما نمیتوانیم کارهایی انجام دهیم که ما را به یک قدرت وحشتناک تبدیل کند به جای یک قدرت فضیلتمند. ما وظیفهای داریم و مأموریتی برای تمام بشریت. سطح دستیابی به این وظیفه بسیار بالاست.»
ارزش فکر کردن دارد. یک مدیر OpenAI به طور عمومی در مورد اینکه آیا شرکت او در حال تبدیل شدن به «یک قدرت وحشتناک به جای یک قدرت فضیلتمند» است سؤال میکند، با اینکه یک رقیب به سؤالات یا یک خبرنگار اشاره کند، برابر نیست. این فردی است که تصمیم گرفته در OpenAI کار کند، به مأموریتش باور دارد و اکنون با وجود خطر حرفهای، یک بحران وجدان را اعتراف میکند.
این یک لحظه تفکیککننده است، که تناقضهای آن ممکن است فقط با پیشرفت OpenAI به سمت هوش مصنوعی عمومی بیشتر شود. این همچنین باعث میشود فکر کنم که سؤال واقعی این نیست که آیا کریس لیهنه میتواند مأموریت OpenAI را بفروشد. سؤال این است که آیا دیگران — از جمله، به طور اساسی، دیگرانی که در آنجا کار میکنند — هنوز به آن باور دارند.







