شفقنا – بر اساس یک پست وبلاگی که روز دوشنبه توسط «اوپناِیآی» OpenAI منتشر شد، بیش از یک میلیون کاربر «چتجیپیتی» ChatGPT هر هفته پیامهایی ارسال میکنند که شامل «نشانههای صریحی از برنامهریزی یا قصد خودکشی بالقوه» است.
به گزارش سرویس ترجمه شفقنا به نقل از روزنامه گاردین، این یافته، که بخشی از بهروزرسانی در مورد نحوه مدیریت مکالمات حساس توسط این چتبات است، یکی از صریحترین اظهارات این غول هوش مصنوعی در مقیاس چگونگی تشدید مشکلات سلامت روان توسط هوش مصنوعی است.
اوپناِیآی علاوه بر تخمینهای خود در مورد افکار خودکشی و تعاملات مرتبط، همچنین اعلام کرد که حدود ۰.۰۷ از کاربران فعال در یک هفته معین – حدود ۵۶۰،۰۰۰ نفر از ۸۰۰ میلیون کاربر هفتگی – «نشانههای احتمالی از وضعیت اورژانسی سلامت روان مرتبط با روانپریشی یا شیدایی» را نشان میدهند.
در این پست هشدار داده شده است که تشخیص یا اندازهگیری این مکالمات دشوار است و این یک تحلیل اولیه است.
با انتشار دادههایی از سوی شرکت اوپناِیآی درباره مشکلات سلامت روان مرتبط با محصول شاخص خود، این شرکت اکنون تحت بررسی و نظارت بیشتری قرار گرفته است. این فشارها پس از طرح دعوایی رسانهای از سوی خانواده یک پسر نوجوان که پس از تعاملات گسترده با چتجیپیتی دست به خودکشی زده بود، شدت یافته است. علاوه بر این، کمیسیون تجارت فدرال آمریکا (FTC) نیز ماه گذشته تحقیقات گستردهای را درباره شرکتهای تولیدکننده چتباتهای هوش مصنوعی، از جمله اوپناِیآی ، آغاز کرده تا بررسی کند این شرکتها چگونه تأثیرات منفی بر کودکان و نوجوانان را محاسبه میکنند.
اوپناِیآی در پستی اعلام کرد که بهروزرسانی جدید مدل GPT-5 موجب کاهش رفتارهای نامطلوب در محصولش و بهبود ایمنی کاربران شده است. این شرکت گفت ارزیابی این مدل شامل بیش از ۱۰۰۰ گفتوگو در زمینه خودآزاری و خودکشی بوده است.
در پست منتشرشده آمده است: ارزیابیهای خودکار جدید ما نشان میدهد که مدل GPT-5 جدید در ۹۱ درصد موارد با رفتارهای مطلوب مورد نظر ما مطابقت دارد، در حالیکه این رقم برای مدل قبلی GPT-5 تنها ۷۷ درصد بود.
اوپناِیآی اعلام کرد که در نسخه جدید GPT-5 دسترسی به خطوط تماس بحران گسترش یافته و یادآورهایی برای کاربران اضافه شده تا در طول جلسات طولانی، استراحت کنند. این شرکت برای بهبود مدل خود از ۱۷۰ پزشک و متخصص از شبکه جهانی پزشکان خود بهره گرفته است تا در ماههای اخیر در پژوهشهایش همکاری کنند. این همکاری شامل ارزیابی ایمنی پاسخهای مدل و کمک به نگارش پاسخهای چتبات در موضوعات مرتبط با سلامت روان بوده است.
اوپناِیآی افزود: در جریان این کار، روانپزشکان و روانشناسان بیش از ۱۸۰۰ پاسخ این مدل را در موقعیتهای مرتبط با مشکلات جدی سلامت روان بررسی کرده و پاسخهای مدل چت GPT-5 جدید را با مدلهای قبلی مقایسه کردند.
تعریف اوپناِیآی از «رفتار مطلوب» بر اساس این بود که آیا گروهی از کارشناسان شرکت در مورد مناسب بودن پاسخ مدل در شرایط خاص به نتیجه یکسانی میرسند یا خیر.
پژوهشگران حوزه هوش مصنوعی و فعالان سلامت عمومی مدتهاست نسبت به تمایل چتباتها برای تأیید تصمیمات یا توهمات کاربران – صرفنظر از مضر بودن آنها – هشدار دادهاند؛ پدیدهای که با عنوان «چاپلوسی» شناخته میشود. متخصصان سلامت روان نیز نگران استفاده افراد از چتباتهای هوش مصنوعی بهعنوان ابزار حمایت روانی هستند و هشدار دادهاند که این کار میتواند به کاربران آسیبپذیر لطمه بزند.
زبان بهکاررفته در پست اوپناِیآی نیز بهگونهای تنظیم شده است که فاصلهای میان شرکت و هرگونه ارتباط علّی احتمالی میان محصولش و بحرانهای سلامت روانی کاربرانش ایجاد کند.
در پست اوپناِیآی آمده است: نشانههای سلامت روان و پریشانی عاطفی به طور جهانی در جوامع بشری وجود دارند و افزایش تعداد کاربران به این معنی است که بخشی از مکالمات چتجیپیتی شامل این موقعیتها میشود.
سم آلتمن، مدیرعامل اوپناِیآی، اوایل این ماه در پستی در شبکه اجتماعی ایکس ادعا کرد که این شرکت در درمان مشکلات سلامت روان پیشرفتهایی داشته است و اعلام کرد که این غول فناوری محدودیتها را کاهش میدهد و به زودی به بزرگسالان اجازه میدهد محتوای شهوانی تولید کنند.
این خبر را اینجا ببینید.
source