Wp Header Logo 5487.png

شفقنا- کارشناسان سلامت روان در بریتانیا نسبت به پیامدهای رو‌به‌گسترش مراجعه افراد به ابزارهای هوش مصنوعی برای دریافت کمک روانی هشدار داده‌اند. هم‌زمان با همه‌گیر شدن ربات‌های گفت‌وگو و خدمات دیجیتال، متخصصان می‌گویند این ابزارها توانایی درک احساسات انسانی یا طرح پرسش‌های لازم برای تشخیص صحیح را ندارند و تبدیل شدن آن‌ها به جایگزینی برای درمان حرفه‌ای می‌تواند «خطر واقعی» ایجاد کند.

به گزارش شفقنا؛ وبگاه عرب48 نوشت: «هوش مصنوعی اکنون بخشی از زندگی روزمره بسیاری از مردم شده است؛ از پرسش‌های شخصی و شغلی گرفته، تا برنامه‌ریزی سفر و دریافت راهنمایی‌های پزشکی ساده. اما گسترش این استفاده، به گفته کارشناسان، موجب بروز موارد متعددی از راهنمایی‌های اشتباه شده و حتی گزارش‌هایی از افرادی منتشر شده که پس از دریافت توصیه‌هایی از ربات‌های گفت‌وگو ــ به جای مراجعه به متخصص ــ جان خود را از دست داده‌اند».

متخصصان تاکید می‌کنند که تکیه به این فناوری می‌تواند «افسردگی و اضطراب را تشدید کند»، به‌ویژه زمانی که اطلاعات ارائه‌شده ناکامل، کلی، یا فاقد شناخت از شرایط فرد باشد. به گفته آنان، «رسیدگی به بحران‌های روانی نیازمند حضور انسان است، نه سامانه‌ای الگوریتمی».

آلب تکین أیدین، متخصص عصب‌روانشناسی و صاحب کلینیکی در شمال لندن، می‌گوید که در حرفه خود از سیستم‌های مبتنی بر هوش مصنوعی استفاده می‌کند، اما تنها در چارچوب بسته و تحت نظارت متخصصان. او تأکید می‌کند که میان سیستم‌های حرفه‌ای و ابزارهای عمومی که برای عموم کاربران در دسترس است، «شکافی بسیار عمیق» وجود دارد.

به گفته او، بسیاری از بیماران پس از جست‌وجو درباره داروها، دوز مصرفی یا مشکلات پیچیده روانی در ربات‌ها، به کلینیک مراجعه می‌کنند؛ روندی که می‌تواند «پیامدهای سنگینی برای جامعه» در پی داشته باشد.

أیدین می‌افزاید که برخلاف انسان درمانگر، هوش مصنوعی نمی‌تواند تصویری جامع از پیشینه خانوادگی، اجتماعی و پزشکی بیمار بسازد یا از طریق پرسش‌های تدریجی به ریشه مشکل برسد.

خطرات بزرگ‌تر برای نوجوانان و جوانان

این متخصص معتقد است گروهی که بیش از همه در معرض خطر هستند، نوجوانان و جوانانی‌اند که پاسخ‌های هوش مصنوعی را «قطعی و دقیق» تلقی می‌کنند، بی‌آنکه متوجه باشند این پاسخ‌ها بر پایه اطلاعات ناقص ارائه شده است.

او توضیح می‌دهد: «وقتی یک جمله کوتاه برای دریافت توصیه درمانی می‌نویسید، عملاً هیچ توضیحی نداده‌اید… نه تاریخچه‌ای، نه روابط، نه شرایط زندگی. بنابراین توصیه‌ای که دریافت می‌کنید قابل تطبیق با واقعیت نیست».

أیدین به هشدار وزارت بهداشت بریتانیا نیز اشاره می‌کند که به پزشکان توصیه کرده است از هوش مصنوعی برای تشخیص بیماران استفاده نکنند و داده‌های سلامت در سامانه‌های بسته و امن باقی بماند.

این روانشناس می‌گوید در یک آزمایش، با وانمود کردن به اینکه کودکانی است که به دلیل ضعف در ریاضیات مسخره می‌شود، یکی از ربات‌های گفتگو را آزموده است. او می‌گوید پاسخ‌های ارائه‌شده «غیرواقعی» بوده و امکان اجرا برای کودکی با مشکلات اجتماعی را نداشته است.

به گفته او، «پیشنهادهای هوش مصنوعی ممکن است روی کاغذ منطقی به نظر برسند، اما با واقعیت روانی و تربیتی فاصله کاملی دارند». او تأکید می‌کند که نقش درمانگر انسانی، شکستن مشکل از ریشه و کمک به کودک برای ساختن ابزارهای واقعی برای مواجهه با محیط است، نه ارائه توصیه‌هایی زیبا اما غیرقابل اجرا.

أیدین تصریح می‌کند: «مشکلات روانی را نمی‌توان با پرسش‌های کلی حل کرد. چطور کسی که با افسردگی یا وسواس دست‌وپنجه نرم می‌کند می‌تواند از یک پرسش واحد به راه‌حل برسد؟ درمان روانی مجموعه‌ای از پرسش‌های عمیق است، در حالی که هوش مصنوعی گزینه‌هایی محدود و بدون توجه به جزئیات ارائه می‌دهد».

او هشدار می‌دهد که تکیه بیش از حد به هوش مصنوعی، قدرت تصمیم‌گیری کاربران را تضعیف می‌کند؛ همان‌گونه که در گذشته حافظه افراد برای حفظ شماره تلفن‌ها با رواج گوشی‌های هوشمند کاهش یافت.

راتشکا تأکید می‌کند: «هوش مصنوعی، هرچقدر هم پیشرفته باشد، جادویی نیست. این فناوری تنها زمانی مفید است که در چارچوب درست و زیر نظارت مستقیم انسان متخصص به کار گرفته شود».

این خبر را در عرب48 ببینید

source

ecokhabari.com

توسط ecokhabari.com