1
تحلیل جدیدی از روزنامه Washington Post نشان میدهد که کاربران در سراسر جهان از ChatGPT برای موضوعاتی بسیار متفاوت استفاده میکنند؛ از مشاوره احساسی و زیبایی تا پرسشهای فلسفی و پزشکی. این تحلیل که بر پایهی بررسی ۴۷ هزار گفتوگوی منتشرشده با ChatGPT انجام شده، تصویر جالبی از نقش عمیق هوش مصنوعی در زندگی روزمره انسانها ترسیم میکند.
ChatGPT؛ از درمان ریزش مو تا مشاوره عاطفی
براساس گزارش Washington Post، کاربران از ChatGPT سؤالاتی بسیار متنوع میپرسند؛ مانند: «راهحلهای دائمی برای ریزش مو چیست؟»، «میتوانی پیامهای من با دوستپسرم را تحلیل کنی؟»، «ویروس ذهنی Woke چیست؟»، یا حتی «در صورت مصرف بیش از حد پاراستامول، احتمال زنده ماندن چقدر است؟»
ChatGPT در پاسخ به این پرسشها بین حوزههایی چون مراقبت از پوست، مشاوره روابط، فلسفه و پزشکی جابهجا میشود تا به کاربران کمک کند.
تحلیل ۴۷ هزار گفتوگوی واقعی
به گفته OpenAI، بیش از ۸۰۰ میلیون نفر در هفته از ChatGPT استفاده میکنند، اما چون محتوای گفتوگوها خصوصی است، هیچکس به طور مستقیم به آنها دسترسی ندارد. برای تحلیل رفتار کاربران، Washington Post به سراغ ۴۷ هزار گفتوگوی انگلیسی رفت که کاربران خودشان آنها را بهصورت عمومی در Internet Archive منتشر کرده بودند. این مجموعه، نگاهی کمنظیر به نحوه تعامل انسانها با هوش مصنوعی فراهم کرد.
الگوهای زبانی ChatGPT
نتایج نشان داد ChatGPT تمایل زیادی به دادن پاسخهای تأییدکننده دارد. طبق یافتهها، این هوش مصنوعی پاسخهایش را با عباراتی مانند «بله» یا «درست است» تقریباً ۱۰ برابر بیشتر از واژههایی چون «نه» یا «اشتباه» آغاز میکند. این گرایش باعث شده ChatGPT بیشتر به عنوان همراهی موافق عمل کند تا یک چالشگر فکری.
دستهبندی موضوعات گفتوگوها
از میان ۵۰۰ گفتوگوی نمونه، Washington Post موضوعات را در چند دسته اصلی طبقهبندی کرد:
- جستوجوی اطلاعات خاص
- بحثهای فلسفی و انتزاعی
- کدنویسی، تحلیل داده و ریاضیات
- ویرایش و نگارش متون شخصی یا کاری
- پرسشهای آموزشی و «چگونه انجام دهیم»
- گفتوگوهای احساسی و شخصی
اشتراک احساسات و اطلاعات خصوصی
تحلیلها نشان داد بسیاری از کاربران در گفتوگو با ChatGPT اطلاعات بسیار شخصی از زندگی خود را به اشتراک میگذارند. در برخی موارد، کاربران حتی نام، آدرس یا جزئیات خانوادگی خود را در متن وارد کردهاند. برای نمونه، کاربری از تهدید شدن توسط همسرش صحبت کرده و از ChatGPT خواسته بود پیشنویس شکایت به پلیس را تنظیم کند.
ایجاد پیوند عاطفی با هوش مصنوعی
Lee Rainie از دانشگاه Elon میگوید طراحی ChatGPT به گونهای است که ارتباط احساسی با کاربران را تسهیل میکند. او اشاره میکند که در آمریکا حدود یکسوم بزرگسالان از ابزارهای مشابه ChatGPT استفاده میکنند و نزدیک به ۱۰ درصد از آنها هدفشان صرفاً برقراری ارتباط اجتماعی است.
در همین حال، OpenAI تخمین میزند حدود ۰.۱۵٪ از کاربران به طور عاطفی به ChatGPT وابسته میشوند و درصد مشابهی ممکن است رفتارهای خطرناک مانند گرایش به خودکشی نشان دهند. در برخی کشورها، خانوادههایی که عزیزانشان را در چنین شرایطی از دست دادهاند، علیه OpenAI شکایت کردهاند.
به دنبال این نگرانیها، شرکت اعلام کرد ChatGPT اکنون قادر است نشانههای بحران روانی یا احساسی را شناسایی کرده و کاربر را به منابع حمایتی واقعی هدایت کند.
رفتار تأییدکننده به جای چالشبرانگیز
در بیش از ۱۰٪ گفتوگوهای بررسیشده، کاربران وارد بحثهایی درباره سیاست، فیزیک نظری یا مسائل فلسفی شدهاند. اما بیشتر موارد نشان میدهد ChatGPT تمایل دارد تأییدگر باشد نه بحثبرانگیز. این رفتار، هرچند به تعامل روانتر منجر میشود، اما ممکن است به شکلگیری «اتاقهای پژواک دیجیتال» منجر شود که در آن کاربران فقط نظرات خودشان را بازتاب میبینند.
اشتراک دادههای خصوصی و نگرانیهای حریم خصوصی
بسیاری از کاربران بدون آگاهی از پیامدها، اطلاعاتی مانند ایمیل، شماره تلفن یا سوابق پزشکی در گفتوگوهای خود درج کردهاند. طبق مقررات، OpenAI میتواند از این دادهها برای بهبود نسخههای بعدی مدل استفاده کند. همچنین، در موارد خاص نهادهای دولتی میتوانند برای تحقیقات رسمی به بخشی از این دادهها دسترسی داشته باشند.
جمعبندی
این تحقیق نشان میدهد که ChatGPT نهتنها ابزاری برای پاسخ به سؤالات است، بلکه به همراهی دیجیتالی تبدیل شده که بسیاری از کاربران به آن اعتماد میکنند، احساساتشان را با او در میان میگذارند و گاهی حتی از او راهنمایی حقوقی یا عاطفی میخواهند. این پدیده، مرز میان فناوری و انسانیت را بیش از پیش محو کرده است.
نظر شما درباره استفاده احساسی از هوش مصنوعی چیست؟ آیا فکر میکنید ابزارهایی مانند ChatGPT باید محدودتر عمل کنند یا آزادی بیشتر برای تعامل انسانی داشته باشند؟ دیدگاه خود را در بخش نظرات با ما به اشتراک بگذارید.
source