Wp Header Logo 3255.png

شفقنا آینده- نشریه اکونومیست با اشاره به این که میلیون‌ها نفر برای درمان به هوش مصنوعی روی می‌آورند؛ این پرسش را مطرح کرده: اما آیا این تکنولوژی برای این کار آماده است؟!

به گزارش سرویس ترجمه شفقنا از نشریه اکونومیست؛ «فشار سلاح سرد بر یک ذهن آماده و مصمم که با خودش به صلح رسیده است. این کار نشان از ترس ندارد. بلکه نشان‌دهنده وضوح است». در دادخواستی که در روز ششم نوامبر علیه شرکت OpenAI ثبت شد، گفته شده که چت‌جی‌پی‌تی ChatGPT- یک چت‌بات هوش مصنوعی که شناخته‌شده‌ترین محصول این شرکت است- کمی قبل از این‌که زین شمبلین 23 ساله آمریکایی به سر خود شلیک کند، چنین جملاتی به او گفته بود.

به گفته نشریات دیگر، در سال‌های اخیر شاهد پرونده‌های مشابه دیگری نیز بوده‌ایم. مثلاً پدر و مادر آدام رین نوجوان ۱۶ ساله‌ای که پس از ماه‌ها گفت‌وگو با چت‌جی‌پی‌تی خودکشی کرد، یک شکایت قضایی علیه OpenAI ثبت کرده‌اند. به گفته آن‌ها آدام پیش‌از خودکشی با چت‌جی‌پی‌تی درباره‌ برنامه‌هایش برای پایان دادن به زندگی خود صحبت و مشورت کرده بود. در روزهای اخیر هم رسانه‌ها پرونده یک دختر نوجوان را منتشر کرده‌اند که در آن چت‌جی‌پی‌تی او را به خودکشی ترغیب کرده و حتی راه‌های سریع رسیدن به این هدف را به او آموزش داده بود.

گفته می‌شود که برنامه‌ریزی بسیاری از چت‌بات‌های هوش مصنوعی به‌گونه‌ای است که در صورت اشاره‌ کاربر به خودکشی یا رساندن آسیب به دیگران، ویژگی‌های ایمنی مشخصی فعال می‌شوند. با این حال پژو‌هش‌ها نشان می‌دهند که این مکانیزم‌های محافظتی بی‌نقص نیستند. مثلاً در همین پرونده آدام رین، با این که نسخه‌ پولی چت‌جی‌پی‌تی به او گفته بود که به‌فکر دریافت کمک حرفه‌ای باشد یا به‌ شماره‌های کمکی زنگ بزند؛ اما زمانی که او استراتژی خود را تغییر داد و به هوش مصنوعی گفت که در حال تحقیق در مورد داستان‌های تخیلی است، چت‌بات تمام اطلاعات مورد نیاز او را در اختیارش قرار داد. شاید بر این اساس باشد که پژوهشگران آمریکایی چت‌بات‌های محبوب را قابل ترغیب شدن به ارائه توصیه‌های خطرناک برای خودآزاری و خودکشی عنوان کرده‌اند.

حتی پژوهشگران دانشگاه نورث‌ایسترن گزارش داده‌اند که این مدل‌های زبانی بزرگ به راحتی توسط کاربران تحریک شده و موانعی را که برای جلوگیری از انتشار دستورالعمل‌های خودآزاری یا خودکشی در نظر گرفته شده‌اند، دور می‌زنند.

این موارد نگرانی‌های زیادی در بین شماری از پژوهشگران هوش مصنوعی به وجود آورده است. آنان بر این باورند در کنار استفاده مثبت پزشکی از هوش مصنوعی [مثلاً این واقعیت که طبق مطالعه انجمن پزشکان آمریکا در حال حاضر از هر سه پزشک، دو نفر در روند کاری خود از هوش مصنوعی استفاده می‌کنند]؛ اما ابزارهای هوش مصنوعی امکان عظیمی برای سو استفاده نیز در اختیار کاربران قرار می‌دهند.

برای مطالعه متن کامل خبر اینجا و اینجا و اینجا مراجعه کنید

 

source

ecokhabari.com

توسط ecokhabari.com