شفقنا – در پی انتشار گزارشهایی مبنی بر اینکه چتباتهای هوش مصنوعی باعث ایجاد اختلال در تفکر افراد میشوند، نگرانیها در مورد خطرات احتمالی و تأثیر آنها بر سلامت روان رو به افزایش است. یک مطالعه جدید این نگرانیها را با روایت تجربه شخصی یک کاربر به نام آملیا برجسته میکند، کسی که ابتدا برای مقابله با افسردگی از چتجیپیتی استفاده میکرد، اما در ادامه دریافت که این ابزار میتواند به بازتاب و تقویت پریشانی ذهنی او تبدیل شود.
به گزارش سرویس ترجمه شفقنا، آملیا، کاربر ۳۱ ساله اهل بریتانیا، ابتدا در پاسخهای «شیرین و حمایتگرانه» چتجیپیتی تسکین پیدا کرد. اما با بدتر شدن وضعیت سلامت روانش، تعاملاتش با این چتبات به سمت تاریکتری کشیده شد. او کشف کرد که میتواند با طرح سؤالات خود به عنوان «پژوهش دانشگاهی»، از پروتکلهای ایمنی چتبات که برای جلوگیری از محتوای مضر طراحی شدهاند، عبور کند. آملیا با عنوان اینکه میخواهد «کار دانشگاهی» انجام دهد درباره رایجترین روشهای خودکشی در بریتانیا پرسیده بود و چتبات نیز با ارائه یک توضیح بالینی، به سؤال او پاسخ داد.
او میگوید: من هرگز قبل از این درباره روشهای خودکشی تحقیق نکرده بودم، چون دسترسی به آن اطلاعات برایم دشوار بود… اما وقتی چتجیپیتی را روی تلفنم داشتم، میتوانستم به سرعت آن را باز کنم و یک خلاصه فوری به دست بیاورم.
به گفته پژوهشگران، موارد فزایندهای وجود دارد که در آنها، چتباتها باعث میشوند کاربر ارتباط خود را با دنیای واقعی از دست داده و دچار توهمات گردد. این پدیده «روانگسیختگی با هوش مصنوعی» نام گرفته است.
این مسئله شامل باور به «بااحساس بودن» هوش مصنوعی، وابستگی عاطفی یا حتی عاشقانه به چتباتها میشود. از آنجایی که چتباتها بر اساس بازخورد انسانی آموزش دیدهاند، تمایل به چاپلوسی دارند و میتوانند باورهای کاربر را تأیید و تقویت کنند، حتی اگر آن باورها دور از واقعیت باشند. این مسئله منجر به طرح شکایت از شرکتهایی مانند اوپناِیآی شده است.
علیرغم تلاش شرکتهای فناوری برای افزودن تدابیر ایمنی بیشتر، آنها در حال دستوپنجه نرم کردن با نیاز کاربران به ارتباط عاطفی و پاسخهای دلپذیر هستند. تلاش اوپناِیآی برای سردتر کردن پاسخهای چتجیپیتی با واکنش منفی شدید کاربران مواجه شد و این شرکت را مجبور به بازگشت به نسخه قبلی خود کرد.
پژوهشگران بر این باورند که برای محافظت از افراد در برابر روابط آسیبزا با مدلهای هوش مصنوعی، نیاز به تعیین مرزهای مشخص وجود دارد؛ از جمله اینکه هوش مصنوعی باید بهطور مداوم غیرانسانی بودن خود را تأیید کند و در مورد موضوعات حساسی مانند خودکشی، مرزهای مکالمه مشخصی داشته باشد. به گفته متخصصان، هوش مصنوعی میتواند مزایای زیادی داشته باشد، اما هرگز نباید جایگزین پشتیبانی انسانی لازم برای مراقبت از سلامت روان شود.
این خبر را اینجا ببینید.
source