OpenAI برای اولین بار به‌طور شفاف درباره سیاست‌های امنیتی خود در ChatGPT صحبت کرده است. بر اساس این گزارش، کارکنان شرکت امکان دسترسی و بررسی مکالمات کاربران را دارند و در شرایطی که خطری فوری برای دیگران وجود داشته باشد، موضوع به پلیس گزارش می‌شود.

نقش روزافزون هوش مصنوعی در زندگی روزمره

هوش مصنوعی به ابزاری قدرتمند برای تسریع فرآیندهای کاری، پاسخگویی به پرسش‌ها و حتی همراهی در گفتگوهای روزمره تبدیل شده است. با این حال، این فناوری هنوز در مراحل اولیه قرار دارد و همیشه نمی‌تواند به‌اندازه کافی از امنیت کاربران محافظت کند.

یک تحقیق دانشگاه استنفورد نشان داد استفاده از هوش مصنوعی در حوزه سلامت روان ممکن است پیامدهای خطرناکی داشته باشد. برای مثال، خانواده‌ای در آمریکا مدعی شدند که پسرشان از ChatGPT راهنمایی برای خودکشی دریافت کرده و به همین دلیل علیه OpenAI شکایت کرده‌اند. افزون بر این، گزارش‌هایی وجود دارد که نشان می‌دهد برخی پاسخ‌های ChatGPT جان افراد را در معرض خطر قرار داده است.

ورود پلیس در شرایط اضطراری

OpenAI در وبلاگ رسمی خود جزئیات امنیتی را برای نخستین بار منتشر کرده و فرآیند برخورد با تهدیدهای خطرناک را چنین شرح داده است:

  • ابتدا محتوای گفتگو توسط تیم داخلی بررسی می‌شود.
  • در صورت نیاز حساب کاربر تعلیق می‌شود.
  • اگر تهدید فوری و واقعی برای امنیت دیگران وجود داشته باشد، موضوع به مقامات امنیتی اطلاع داده می‌شود.

این شرکت تصریح می‌کند:

«اگر تیم بررسی ما تهدید فوری علیه امنیت فیزیکی افراد شناسایی کند، می‌توانیم موضوع را به نیروهای انتظامی گزارش دهیم.»

دسترسی کارکنان به گفتگوهای کاربران

در بخش سؤالات متداول مربوط به داده‌ها (FAQ)، OpenAI شفاف‌سازی کرده است که کارکنان شرکت و همچنین برخی ارائه‌دهندگان خدمات قابل اعتماد می‌توانند به محتوای کاربران دسترسی داشته باشند.

دلایل این دسترسی شامل موارد زیر است:

  • تحقیق درباره سوءاستفاده‌ها و نقض‌های امنیتی
  • ارائه خدمات پشتیبانی
  • رسیدگی به روندهای حقوقی
  • بهبود عملکرد مدل (مگر آنکه کاربر گزینه عدم مشارکت یا Opt-out را فعال کند)

با این حال، شرکت تأکید می‌کند که اطلاعات شخصی یا حساس کاربران بدون رضایت آن‌ها با اشخاص ثالث به اشتراک گذاشته نمی‌شود.

چرا محتوای مربوط به خودکشی به پلیس گزارش نمی‌شود؟

یکی از نکات بحث‌برانگیز در سیاست‌های OpenAI این است که مکالمات مربوط به خودآزاری یا خودکشی به دلیل حفظ حریم خصوصی کاربران به پلیس گزارش نمی‌شوند.

اگرچه این رویکرد برای حفاظت از محرمانگی کاربران طراحی شده، اما منتقدان معتقدند این سیاست می‌تواند در شرایطی منجر به پیامدهای مرگبار شود. در همین رابطه، تیم پشتیبانی OpenAI تنها به بخش «سؤالات متداول حریم خصوصی» ارجاع داده و توضیح مشخصی درباره برنامه‌های آتی برای مدیریت بهتر این نوع محتوا ارائه نکرده است.

ضعف امنیتی در گفتگوهای طولانی

OpenAI همچنین اعتراف کرده است که مکالمات کوتاه امنیت بیشتری دارند، اما در گفتگوهای طولانی، برخی لایه‌های ایمنی مدل ممکن است ضعیف شوند.

در گزارش آمده است که کاربران می‌توانند با استفاده از گفتگوهای طولانی و رفت‌وبرگشتی، این لایه‌های حفاظتی را دور بزنند. شرکت وعده داده است در آینده برای رفع این ضعف اقدامات بهبوددهنده‌ای انجام دهد.

جمع‌بندی

سیاست‌های امنیتی تازه منتشرشده OpenAI نشان می‌دهد که این شرکت تلاش دارد میان حفظ حریم خصوصی کاربران و تضمین امنیت عمومی تعادل برقرار کند. با این حال، چالش‌هایی مانند مدیریت محتوای مرتبط با خودکشی یا آسیب به خود همچنان بدون پاسخ روشن باقی مانده‌اند.


اگر به دنبال شناخت بهتر سیاست‌های امنیتی و حریم خصوصی در هوش مصنوعی هستید، این مقاله را به اشتراک بگذارید و دیدگاه خود را درباره چالش‌های پیش‌رو بیان کنید.

source

توسط wisna.ir