شفقنا- کارشناسان سلامت روان در بریتانیا نسبت به پیامدهای روبهگسترش مراجعه افراد به ابزارهای هوش مصنوعی برای دریافت کمک روانی هشدار دادهاند. همزمان با همهگیر شدن رباتهای گفتوگو و خدمات دیجیتال، متخصصان میگویند این ابزارها توانایی درک احساسات انسانی یا طرح پرسشهای لازم برای تشخیص صحیح را ندارند و تبدیل شدن آنها به جایگزینی برای درمان حرفهای میتواند «خطر واقعی» ایجاد کند.
به گزارش شفقنا؛ وبگاه عرب48 نوشت: «هوش مصنوعی اکنون بخشی از زندگی روزمره بسیاری از مردم شده است؛ از پرسشهای شخصی و شغلی گرفته، تا برنامهریزی سفر و دریافت راهنماییهای پزشکی ساده. اما گسترش این استفاده، به گفته کارشناسان، موجب بروز موارد متعددی از راهنماییهای اشتباه شده و حتی گزارشهایی از افرادی منتشر شده که پس از دریافت توصیههایی از رباتهای گفتوگو ــ به جای مراجعه به متخصص ــ جان خود را از دست دادهاند».
متخصصان تاکید میکنند که تکیه به این فناوری میتواند «افسردگی و اضطراب را تشدید کند»، بهویژه زمانی که اطلاعات ارائهشده ناکامل، کلی، یا فاقد شناخت از شرایط فرد باشد. به گفته آنان، «رسیدگی به بحرانهای روانی نیازمند حضور انسان است، نه سامانهای الگوریتمی».
آلب تکین أیدین، متخصص عصبروانشناسی و صاحب کلینیکی در شمال لندن، میگوید که در حرفه خود از سیستمهای مبتنی بر هوش مصنوعی استفاده میکند، اما تنها در چارچوب بسته و تحت نظارت متخصصان. او تأکید میکند که میان سیستمهای حرفهای و ابزارهای عمومی که برای عموم کاربران در دسترس است، «شکافی بسیار عمیق» وجود دارد.
به گفته او، بسیاری از بیماران پس از جستوجو درباره داروها، دوز مصرفی یا مشکلات پیچیده روانی در رباتها، به کلینیک مراجعه میکنند؛ روندی که میتواند «پیامدهای سنگینی برای جامعه» در پی داشته باشد.
أیدین میافزاید که برخلاف انسان درمانگر، هوش مصنوعی نمیتواند تصویری جامع از پیشینه خانوادگی، اجتماعی و پزشکی بیمار بسازد یا از طریق پرسشهای تدریجی به ریشه مشکل برسد.
خطرات بزرگتر برای نوجوانان و جوانان
این متخصص معتقد است گروهی که بیش از همه در معرض خطر هستند، نوجوانان و جوانانیاند که پاسخهای هوش مصنوعی را «قطعی و دقیق» تلقی میکنند، بیآنکه متوجه باشند این پاسخها بر پایه اطلاعات ناقص ارائه شده است.
او توضیح میدهد: «وقتی یک جمله کوتاه برای دریافت توصیه درمانی مینویسید، عملاً هیچ توضیحی ندادهاید… نه تاریخچهای، نه روابط، نه شرایط زندگی. بنابراین توصیهای که دریافت میکنید قابل تطبیق با واقعیت نیست».
أیدین به هشدار وزارت بهداشت بریتانیا نیز اشاره میکند که به پزشکان توصیه کرده است از هوش مصنوعی برای تشخیص بیماران استفاده نکنند و دادههای سلامت در سامانههای بسته و امن باقی بماند.
این روانشناس میگوید در یک آزمایش، با وانمود کردن به اینکه کودکانی است که به دلیل ضعف در ریاضیات مسخره میشود، یکی از رباتهای گفتگو را آزموده است. او میگوید پاسخهای ارائهشده «غیرواقعی» بوده و امکان اجرا برای کودکی با مشکلات اجتماعی را نداشته است.
به گفته او، «پیشنهادهای هوش مصنوعی ممکن است روی کاغذ منطقی به نظر برسند، اما با واقعیت روانی و تربیتی فاصله کاملی دارند». او تأکید میکند که نقش درمانگر انسانی، شکستن مشکل از ریشه و کمک به کودک برای ساختن ابزارهای واقعی برای مواجهه با محیط است، نه ارائه توصیههایی زیبا اما غیرقابل اجرا.
أیدین تصریح میکند: «مشکلات روانی را نمیتوان با پرسشهای کلی حل کرد. چطور کسی که با افسردگی یا وسواس دستوپنجه نرم میکند میتواند از یک پرسش واحد به راهحل برسد؟ درمان روانی مجموعهای از پرسشهای عمیق است، در حالی که هوش مصنوعی گزینههایی محدود و بدون توجه به جزئیات ارائه میدهد».
او هشدار میدهد که تکیه بیش از حد به هوش مصنوعی، قدرت تصمیمگیری کاربران را تضعیف میکند؛ همانگونه که در گذشته حافظه افراد برای حفظ شماره تلفنها با رواج گوشیهای هوشمند کاهش یافت.
راتشکا تأکید میکند: «هوش مصنوعی، هرچقدر هم پیشرفته باشد، جادویی نیست. این فناوری تنها زمانی مفید است که در چارچوب درست و زیر نظارت مستقیم انسان متخصص به کار گرفته شود».
این خبر را در عرب48 ببینید
source