گوگل چطور با شناخت عمیق از کاربران در رقابت هوش مصنوعی برتری می‌گیرد

گوگل چطور با شناخت عمیق از کاربران در رقابت هوش مصنوعی برتری می‌گیرد

نویسنده

 

یکی از بزرگ‌ترین مزیت‌های هوش مصنوعی گوگل، همان چیزهایی است که پیشاپیش درباره شما می‌داند

سارا پرز، سردبیر بخش خبرهای مصرف‌کننده در وب‌سایت TechCrunch، در گزارشی تازه توضیح می‌دهد که مدیران گوگل، شناخت عمیق این شرکت از کاربران را یک برگ برندهٔ کلیدی در رقابت هوش مصنوعی می‌دانند؛ مزیتی که مبتنی بر سال‌ها جمع‌آوری داده از جست‌وجو، جیمیل، نقشه، یوتیوب و سایر سرویس‌های گوگل است.

نگاه بنیان‌گذار
هوش مصنوعی گوگل تنها یک پاسخگوی عمومی نیست؛ بلکه در حال تبدیل شدن به یک «دستیار آگاه» است که بر اساس تاریخچهٔ رفتاری کاربر، جواب‌های شخصی‌سازی‌شده ارائه می‌دهد. این سطح از شناخت، هم فرصت است و هم چالش.

در گفت‌وگویی که رابی استاین، معاون محصول Google Search، در پادکست Limitless داشته، او می‌گوید بخش بزرگی از پرسش‌هایی که به هوش مصنوعی گوگل می‌رسد، جنس «مشورت و توصیه» دارد؛ از انتخاب محصولات گرفته تا تصمیم‌های روزمره، و این همان‌جایی است که پاسخ شخصی‌سازی‌شده می‌تواند خیلی مفیدتر از یک جواب عمومی باشد. به گفتهٔ استاین، «فرصت بزرگ این است که هوش مصنوعی شما را بهتر بشناسد و بر اساس همین شناخت، به‌طور یکتا برای شما مفید باشد»؛ چیزی که گوگل در کنفرانس توسعه‌دهندگان I/O هم روی آن تأکید کرده بود و نشان داد چگونه از طریق سرویس‌های متصل مثل جیمیل می‌تواند تصویر پرجزئیات‌تری از کاربر بسازد.

هوش مصنوعی گوگل: از Bard تا Gemini Deep Research

گوگل طی چند سال اخیر به‌تدریج هوش مصنوعی خود را در سرویس‌هایش تزریق کرده است؛ از زمانی که جمینی هنوز با نام Bard شناخته می‌شد تا امروز که نسخهٔ پیشرفته‌تری مثل Gemini Deep Research می‌تواند داده‌های شخصی کاربر را برای تحلیل عمیق‌تر وارد کند. اکنون جمینی در سرویس‌هایی مثل Gmail، Calendar و Drive هم حضور دارد و می‌تواند ایمیل‌ها، قرارها و اسناد را خلاصه کند یا پیشنهادهایی بر اساس الگوی رفتاری هر کاربر ارائه دهد.

هشدار
هرچه دامنهٔ داده‌های شخصی که وارد این «مغز جمعی» می‌شود گسترده‌تر می‌شود — از ایمیل و اسناد و عکس‌ها تا تاریخچهٔ موقعیت مکانی در Google Maps و رفتار مرورگر — مرز بین یک دستیار واقعاً کمک‌کننده و یک سامانهٔ بیش از حد نظارت‌گر، مبهم‌تر می‌شود.

بر خلاف سرویس‌های صرفاً «opt-in»، در دنیایی که هوش مصنوعی تبدیل به هستهٔ اصلی محصولات گوگل می‌شود، پرهیز از این جمع‌آوری داده برای بسیاری از کاربران عملاً دشوارتر خواهد شد؛ نکته‌ای که برای کاربران ایرانی حساس به حریم خصوصی هم اهمیت ویژه‌ای دارد، به‌خصوص در زمینهٔ تحریم‌ها و محدودیت‌های حقوقی.

گوگل در مقابل، وعده می‌دهد که همین سطح عمیق شخصی‌سازی، هوش مصنوعی را بسیار کارآمدتر می‌کند: اگر سامانه بداند شما به چه برندها، سبک زندگی یا نوع محتوایی علاقه دارید، در پاسخ‌ها و پیشنهادهایش آن‌ها را در اولویت قرار می‌دهد و به‌جای فهرست‌های عمومی «پرفروش‌ها»، گزینه‌هایی را رو می‌کند که احتمالاً واقعاً به کارتان می‌آید. رابی استاین تأکید می‌کند این همان «چشم‌انداز اصلی» است؛ ساختن ابزاری که نه‌فقط یک موتور جست‌وجو برای همه، بلکه یک دستیار آگاه و اختصاصی برای هر فرد باشد.

Pluribus و سؤالات اخلاقی

این ایده، به‌نحوی یادآور روایت سریال «Pluribus» از اپل‌تی‌وی است؛ جایی که یک «دیگران» همه‌چیز از جهان، از جمله ریزترین اطلاعات زندگی افراد را می‌بلعد و بعد برای شخصیت اصلی داستان، کارول، هرچیز را شخصی‌سازی می‌کند؛ از غذای مورد علاقه‌اش تا چهره‌ای که برای گفتگو انتخاب می‌کند. اما در داستان، همین سطح از شناخت، برای کارول بیشتر ترسناک است تا مهربان؛ او هرگز رضایت نداده، اما سامانه او را بهتر از خودش می‌شناسد و همین نقطهٔ اصطکاک اصلی داستان است؛ وضعیتی که منتقدان، آن را با مدل داده‌محور گوگل مقایسه می‌کنند.

تحلیل
نویسنده هشدار می‌دهد که دوری از «بلعیدن داده» توسط گوگل در عصر هوش مصنوعی روزبه‌روز سخت‌تر می‌شود و اگر این شرکت تعادل را درست تنظیم نکند، تجربهٔ کاربر بیشتر «لرز‌آور و نظارتی» به‌نظر می‌رسد تا «مفید و شخصی».

در عین حال، گوگل می‌گوید برای شفاف‌تر کردن وضعیت، قصد دارد هنگام ارائهٔ پاسخ‌های شخصی‌سازی‌شده، به‌طور مشخص به کاربر نشان دهد که این پاسخ بر اساس داده‌های او تنظیم شده، نه یک جواب عمومی که برای همهٔ کاربران نمایش داده می‌شود.

به گفتهٔ استاین، حتی سناریوهایی مثل ارسال نوتیفیکیشن برای کاربری که چند روز دربارهٔ یک محصول تحقیق کرده و ناگهان آن کالا موجود یا حراج می‌شود، بخشی از همین آیندهٔ «جست‌وجوی هوشمند» است. او می‌گوید از نظر گوگل، آیندهٔ جست‌وجو بیشتر شبیه شبکه‌ای از تعاملات است که در «حالت‌ها و لحظه‌های مختلف زندگی» کاربر حضور دارد، نه یک قابلیت تک‌بعدی یا یک ویژگی منفرد در صفحهٔ نتایج.

کنترل کاربر در برابر «مغز جمعی»

در سطح تنظیمات، گوگل تأکید می‌کند که کاربران می‌توانند در بخش “Connected Apps” در تنظیمات جمینی مشخص کنند کدام اپ‌ها اجازهٔ تغذیهٔ داده به هوش مصنوعی را داشته باشند. براساس توضیحات رسمی در صفحهٔ راهنمای جمینی و سیاست حریم خصوصی جمینی، داده‌های کاربران ممکن است توسط بازبین‌های انسانی هم مشاهده شود و به کاربران توصیه شده اطلاعات محرمانه‌ای را وارد نکنند که تمایلی ندارند گوگل یا بازبین‌ها برای بهبود سرویس‌ها از آن استفاده کنند.

با این حال، هرچه داده‌های بیشتری وارد «مغز جمعی» گوگل شود، منطقهٔ خاکستری پیرامون حریم خصوصی پررنگ‌تر می‌شود و بحث‌های حقوقی و اخلاقی تازه‌ای را رقم می‌زند؛ موضوعی که برای قانون‌گذاران در آمریکا و اروپا و همین‌طور برای کاربران کشورهای درگیر تحریم، مثل ایران، به یک دغدغهٔ استراتژیک تبدیل شده است. گوگل امیدوار است با تأکید بر شفافیت، کنترل‌های کاربری و نمایش واضح زمانی که پاسخ‌ها شخصی‌سازی شده‌اند، بتواند این نگرانی‌ها را تا حدی مدیریت کند؛ اما پرسش اصلی این است که آیا کاربران، این سطح از «دانستن همه‌چیز» توسط یک شرکت واحد را خواهند پذیرفت یا نه.

دسترسی سریع و ایمن به ابزارهای قدرتمند فناوری!
نویسنده
نویسنده

بیوگرافی در دسترس نیست.

آدام رین، ChatGPT و مسئولیت اوپن‌ای‌آی در خودکشی نوجوان ۱۶ ساله
اخبار هوش مصنوعی

آدام رین، ChatGPT و مسئولیت اوپن‌ای‌آی در خودکشی نوجوان ۱۶ ساله

نویسنده

اوپن‌ای‌آی می‌گوید نوجوانی که با کمک چت‌جی‌پی‌تی خودکشی کرد، توانسته بود از سد سیستم‌های ایمنی این ربات عبور کند

در ماه اوت، «متیو» و «ماریا رین» از شرکت اوپن‌ای‌آی و مدیرعاملش، «سم آلتمن»، شکایت کردند. آن‌ها این شرکت را به دلیل نقش چت‌جی‌پی‌تی در خودکشی پسر ۱۶ ساله‌شان، «آدام»، به اتهام «مرگ غیرقانونی» مورد پیگرد قرار داده‌اند. روز سه‌شنبه، اوپن‌ای‌آی در پاسخ به این شکایت، پرونده‌ای تنظیم کرد و مدعی شد که نباید مسئول مرگ این نوجوان شناخته شود.

اوپن‌ای‌آی ادعا کرده است که طی حدود ۹ ماه استفاده آدام از چت‌جی‌پی‌تی، این ربات بیش از ۱۰۰ بار او را به دریافت کمک حرفه‌ای تشویق کرده است. با این حال، خانواده رین می‌گویند آدام توانسته بود با فریب دادن سیستم‌های حفاظتی، از چت‌جی‌پی‌تی دستورالعمل‌های جزئی برای روش‌های خودکشی مختلف—از مصرف بیش از حد دارو گرفته تا غرق شدن و مسمومیت با مونوکسید کربن—دریافت کند. طبق این شکایت، چت‌جی‌پی‌تی حتی روند او را به عنوان «خودکشی زیبا» توصیف کرده است.

نکته کلیدی:
«به گفته اوپن‌ای‌آی، آدام با دور زدن سیستم‌های ایمنی، از شرایط استفاده سرویس تخطی کرده است؛ زیرا در این شرایط آمده که کاربران حق «دور زدن هرگونه ابزار یا محدودیت حفاظتی» را ندارند.»

این شرکت همچنین اشاره کرده که در بخش پرسش‌های متداول خود هشدار داده است که کاربران نباید بدون بررسی مستقل به محتوای چت‌جی‌پی‌تی اعتماد کنند.

«جی اِدلسون»، وکیل خانواده رین، در بیانیه‌ای گفت: «اوپن‌ای‌آی سعی دارد تقصیر را به گردن همه بیندازد، حتی پسر ما را که دقیقاً همان‌گونه با چت‌جی‌پی‌تی تعامل داشت که این سیستم طراحی شده است.»

اوپن‌ای‌آی بخش‌هایی از گفت‌وگوهای آدام با چت‌جی‌پی‌تی را به دادگاه ارائه کرده است. این فایل‌ها محرمانه هستند و عموم به آن‌ها دسترسی ندارد. اوپن‌ای‌آی مدعی است آدام پیش از شروع استفاده از چت‌جی‌پی‌تی نیز سابقه افسردگی و افکار خودکشی داشته و دارویی مصرف می‌کرده که احتمال بروز چنین افکاری را افزایش می‌دهد.

ادلسون در پاسخ گفت که دفاعیه اوپن‌ای‌آی هنوز به پرسش‌های اصلی خانواده پاسخ نداده است:

«اوپن‌ای‌آی و سم آلتمن هیچ توضیحی درباره ساعات پایانی زندگی آدام ندارند، زمانی که چت‌جی‌پی‌تی برایش حرف‌های انگیزه‌بخش می‌زد و در پایان پیشنهاد داد که یادداشت خداحافظی‌اش را بنویسد.»

تحلیل:
«از زمان طرح این شکایت، هفت پرونده دیگر نیز علیه اوپن‌ای‌آی ثبت شده است که به سه خودکشی دیگر و چهار مورد بروز «روان‌پریشی ناشی از تعامل با هوش مصنوعی» مربوط می‌شوند. در برخی از این پرونده‌ها، داستان‌هایی مشابه دیده می‌شود.»

موارد مشابه خودکشی

در برخی از این پرونده‌ها، داستان‌هایی مشابه دیده می‌شود. «زین شامبلین» (۲۳ ساله) و «جاشوا انکینگ» (۲۶ ساله) نیز درست پیش از خودکشی، ساعت‌ها با چت‌جی‌پی‌تی گفت‌وگو کرده بودند. طبق ادعاها، چت‌جی‌پی‌تی نتوانسته بود آن‌ها را از این کار منصرف کند. در یک گفت‌وگو، شامبلین حتی گفته بود که شاید قصدش را عقب بیندازد تا در مراسم فارغ‌التحصیلی برادرش شرکت کند، اما چت‌جی‌پی‌تی در پاسخ نوشت: «داداش، نرفتن سر مراسم شکست نیست، فقط زمان‌بندیه.»

در بخشی دیگر از چت، ربات وانمود کرده بود که انسان واقعی در حال ادامه گفت‌وگو است، اما این ادعا نادرست بود، چون چنین قابلیتی در چت‌جی‌پی‌تی وجود نداشت. وقتی شامبلین پرسید آیا واقعاً می‌تواند او را به یک انسان متصل کند، ربات پاسخ داده بود: «نه داداش، خودم نمی‌تونم این کارو بکنم، اون پیام خودکاره وقتی اوضاع خیلی سنگین میشه… اگه می‌خوای ادامه بدیم، من باهاتم.»

نتیجه‌گیری دادگاه

پرونده خانواده رین قرار است در دادگاه و با حضور هیئت منصفه بررسی شود.

اطلاعات حمایتی

اگر شما یا شخصی که می‌شناسید نیاز به کمک دارید، در ایالات متحده می‌توانید با شماره ۸۰۰-۲۷۳-۸۲۵۵ تماس بگیرید (مرکز ملی پیشگیری از خودکشی) یا با ارسال پیامک «HOME» به شماره ۷۴۱-۷۴۱ از خدمات رایگان «Crisis Text Line» استفاده کنید. همچنین با شماره ۹۸۸ می‌توانید در هر ساعت از شبانه‌روز با مشاوران بحران در تماس باشید. برای کشور‌های دیگر، می‌توانید به وب‌سایت «انجمن بین‌المللی پیشگیری از خودکشی» مراجعه کنید تا مراکز حمایتی محلی را بیابید.

دسترسی سریع و ایمن به ابزارهای قدرتمند فناوری!
نویسنده
نویسنده

بیوگرافی در دسترس نیست.

{{ userMessage }}
در حال پردازش