Wp Header Logo 2096.png

شفقنا – بر اساس یک پست وبلاگی که روز دوشنبه توسط «اوپن‌اِی‌آی» OpenAI منتشر شد، بیش از یک میلیون کاربر «چت‌جی‌پی‌تی» ChatGPT هر هفته پیام‌هایی ارسال می‌کنند که شامل «نشانه‌های صریحی از برنامه‌ریزی یا قصد خودکشی بالقوه» است.

به گزارش سرویس ترجمه شفقنا به نقل از روزنامه گاردین، این یافته، که بخشی از به‌روزرسانی در مورد نحوه‌ مدیریت مکالمات حساس توسط این چت‌بات است، یکی از صریح‌ترین اظهارات این غول هوش مصنوعی در مقیاس چگونگی تشدید مشکلات سلامت روان توسط هوش مصنوعی است.

اوپن‌اِی‌آی علاوه بر تخمین‌های خود در مورد افکار خودکشی و تعاملات مرتبط، همچنین اعلام کرد که حدود ۰.۰۷ از کاربران فعال در یک هفته معین – حدود ۵۶۰،۰۰۰ نفر از ۸۰۰ میلیون کاربر هفتگی – «نشانه‌های احتمالی از وضعیت اورژانسی سلامت روان مرتبط با روان‌پریشی یا شیدایی» را نشان می‌دهند.

در این پست هشدار داده شده است که تشخیص یا اندازه‌گیری این مکالمات دشوار است و این یک تحلیل اولیه است.

با انتشار داده‌هایی از سوی شرکت اوپن‌اِی‌آی درباره مشکلات سلامت روان مرتبط با محصول شاخص خود، این شرکت اکنون تحت بررسی و نظارت بیشتری قرار گرفته است. این فشارها پس از طرح دعوایی رسانه‌ای از سوی خانواده‌ یک پسر نوجوان که پس از تعاملات گسترده با چت‌جی‌پی‌تی دست به خودکشی زده بود، شدت یافته است. علاوه بر این، کمیسیون تجارت فدرال آمریکا (FTC) نیز ماه گذشته تحقیقات گسترده‌ای را درباره شرکت‌های تولیدکننده چت‌بات‌های هوش مصنوعی، از جمله اوپن‌اِی‌آی ، آغاز کرده تا بررسی کند این شرکت‌ها چگونه تأثیرات منفی بر کودکان و نوجوانان را محاسبه می‌کنند.

اوپن‌اِی‌آی در پستی اعلام کرد که به‌روزرسانی جدید مدل GPT-5 موجب کاهش رفتارهای نامطلوب در محصولش و بهبود ایمنی کاربران شده است. این شرکت گفت ارزیابی این مدل شامل بیش از ۱۰۰۰ گفت‌وگو در زمینه خودآزاری و خودکشی بوده است.

در پست منتشرشده آمده است: ارزیابی‌های خودکار جدید ما نشان می‌دهد که مدل GPT-5 جدید در ۹۱ درصد موارد با رفتارهای مطلوب مورد نظر ما مطابقت دارد، در حالی‌که این رقم برای مدل قبلی GPT-5 تنها ۷۷ درصد بود.

اوپن‌اِی‌آی اعلام کرد که در نسخه جدید GPT-5 دسترسی به خطوط تماس بحران گسترش یافته و یادآورهایی برای کاربران اضافه شده تا در طول جلسات طولانی، استراحت کنند. این شرکت برای بهبود مدل خود از ۱۷۰ پزشک و متخصص از شبکه جهانی پزشکان خود بهره گرفته است تا در ماه‌های اخیر در پژوهش‌هایش همکاری کنند. این همکاری شامل ارزیابی ایمنی پاسخ‌های مدل و کمک به نگارش پاسخ‌های چت‌بات در موضوعات مرتبط با سلامت روان بوده است.

اوپن‌اِی‌آی افزود: در جریان این کار، روان‌پزشکان و روان‌شناسان بیش از ۱۸۰۰ پاسخ این مدل را در موقعیت‌های مرتبط با مشکلات جدی سلامت روان بررسی کرده و پاسخ‌های مدل چت GPT-5 جدید را با مدل‌های قبلی مقایسه کردند.

تعریف اوپن‌اِی‌آی از «رفتار مطلوب» بر اساس این بود که آیا گروهی از کارشناسان شرکت در مورد مناسب بودن پاسخ مدل در شرایط خاص به نتیجه‌ یکسانی می‌رسند یا خیر.

پژوهشگران حوزه هوش مصنوعی و فعالان سلامت عمومی مدت‌هاست نسبت به تمایل چت‌بات‌ها برای تأیید تصمیمات یا توهمات کاربران – صرف‌نظر از مضر بودن آن‌ها – هشدار داده‌اند؛ پدیده‌ای که با عنوان «چاپلوسی» شناخته می‌شود. متخصصان سلامت روان نیز نگران استفاده افراد از چت‌بات‌های هوش مصنوعی به‌عنوان ابزار حمایت روانی هستند و هشدار داده‌اند که این کار می‌تواند به کاربران آسیب‌پذیر لطمه بزند.

زبان به‌کاررفته در پست اوپن‌اِی‌آی نیز به‌گونه‌ای تنظیم شده است که فاصله‌ای میان شرکت و هرگونه ارتباط علّی احتمالی میان محصولش و بحران‌های سلامت روانی کاربرانش ایجاد کند.

در پست اوپن‌اِی‌آی آمده است: نشانه‌های سلامت روان و پریشانی عاطفی به طور جهانی در جوامع بشری وجود دارند و افزایش تعداد کاربران به این معنی است که بخشی از مکالمات چت‌جی‌پی‌تی شامل این موقعیت‌ها می‌شود.

سم آلتمن، مدیرعامل اوپن‌اِی‌آی، اوایل این ماه در پستی در شبکه اجتماعی ایکس ادعا کرد که این شرکت در درمان مشکلات سلامت روان پیشرفت‌هایی داشته است و اعلام کرد که این غول فناوری محدودیت‌ها را کاهش می‌دهد و به زودی به بزرگسالان اجازه می‌دهد محتوای شهوانی تولید کنند.

این خبر را اینجا ببینید.

source

ecokhabari.com

توسط ecokhabari.com