Wp Header Logo 1079.png

شفقنا – در پی انتشار گزارش‌هایی مبنی بر اینکه چت‌بات‌های هوش مصنوعی باعث ایجاد اختلال در تفکر افراد می‌شوند، نگرانی‌ها در مورد خطرات احتمالی و تأثیر آن‌ها بر سلامت روان رو به افزایش است. یک مطالعه جدید این نگرانی‌ها را با روایت تجربه شخصی یک کاربر به نام آملیا برجسته می‌کند، کسی که ابتدا برای مقابله با افسردگی از چت‌جی‌پی‌تی استفاده می‌کرد، اما در ادامه دریافت که این ابزار می‌تواند به بازتاب و تقویت پریشانی ذهنی او تبدیل شود.

به گزارش سرویس ترجمه شفقنا، آملیا، کاربر ۳۱ ساله اهل بریتانیا، ابتدا در پاسخ‌های «شیرین و حمایت‌گرانه» چت‌جی‌پی‌تی تسکین پیدا کرد. اما با بدتر شدن وضعیت سلامت روانش، تعاملاتش با این چت‌بات به سمت تاریک‌تری کشیده شد. او کشف کرد که می‌تواند با طرح سؤالات خود به عنوان «پژوهش دانشگاهی»، از پروتکل‌های ایمنی چت‌بات که برای جلوگیری از محتوای مضر طراحی شده‌اند، عبور کند. آملیا با عنوان اینکه می‌خواهد «کار دانشگاهی» انجام دهد درباره رایج‌ترین روش‌های خودکشی در بریتانیا پرسیده بود و چت‌بات نیز با ارائه یک توضیح بالینی، به سؤال او پاسخ داد.

او می‌گوید: من هرگز قبل از این درباره روش‌های خودکشی تحقیق نکرده بودم، چون دسترسی به آن اطلاعات برایم دشوار بود… اما وقتی چت‌جی‌پی‌تی را روی تلفنم داشتم، می‌توانستم به سرعت آن را باز کنم و یک خلاصه فوری به دست بیاورم.

به گفته پژوهشگران، موارد فزاینده‌ای وجود دارد که در آن‌ها، چت‌بات‌ها باعث می‌شوند کاربر ارتباط خود را با دنیای واقعی از دست داده و دچار توهمات گردد. این پدیده «روان‌گسیختگی با هوش مصنوعی» نام گرفته است.

این مسئله شامل باور به «بااحساس بودن» هوش مصنوعی، وابستگی عاطفی یا حتی عاشقانه به چت‌بات‌ها می‌شود. از آنجایی که چت‌بات‌ها بر اساس بازخورد انسانی آموزش دیده‌اند، تمایل به چاپلوسی دارند و می‌توانند باورهای کاربر را تأیید و تقویت کنند، حتی اگر آن باورها دور از واقعیت باشند. این مسئله منجر به طرح شکایت از شرکت‌هایی مانند اوپن‌اِی‌آی شده است.

علیرغم تلاش شرکت‌های فناوری برای افزودن تدابیر ایمنی بیشتر، آن‌ها در حال دست‌وپنجه نرم کردن با نیاز کاربران به ارتباط عاطفی و پاسخ‌های دلپذیر هستند. تلاش اوپن‌اِی‌آی برای سردتر کردن پاسخ‌های چت‌جی‌پی‌تی با واکنش منفی شدید کاربران مواجه شد و این شرکت را مجبور به بازگشت به نسخه قبلی خود کرد.

پژوهشگران بر این باورند که برای محافظت از افراد در برابر روابط آسیب‌زا با مدل‌های هوش مصنوعی، نیاز به تعیین مرزهای مشخص وجود دارد؛ از جمله اینکه هوش مصنوعی باید به‌طور مداوم غیرانسانی بودن خود را تأیید کند و در مورد موضوعات حساسی مانند خودکشی، مرزهای مکالمه مشخصی داشته باشد. به گفته متخصصان، هوش مصنوعی می‌تواند مزایای زیادی داشته باشد، اما هرگز نباید جایگزین پشتیبانی انسانی لازم برای مراقبت از سلامت روان شود.

این خبر را اینجا ببینید.

source

ecokhabari.com

توسط ecokhabari.com