Wp Header Logo 3534.png

شفقنا- طبق گزارشی که توسط ونچر بیت منتشر شده است، مطالعه‌ای از سوی اپن ای آی، گوگل و آنتروپیک نجام شده، در مورد ورود مدل‌های هوش مصنوعی به مرحله تفکر عمیق و پنهان ساختن الگوهای تفکر خود هشدار می دهد.

به گزارش شفقنا به نقل از الجزیره، این گزارش نشان می‌دهد   به زوده پنجره برای درک مدل‌های هوش مصنوعی با تفکر عمیق برای همیشه بسته می‌شود و پس از آن، دیگر قادر به درک نحوه تفکر این مدل‌ها و نحوه رسیدن آنها به نتایج نهایی نخواهیم بود.

این مطالعه شامل همکاری بیش از ۴۰ دانشمند در بخش‌های مختلف این سه شرکت بوده و در آن تلاش شده است تا فرآیند تصمیم‌گیری و تفکر عمیقی درک شود که مدل‌های هوش مصنوعی قبل از ارائه نتایج نهایی خود دنبال می‌کنند.

این مطالعه نشان می‌دهد که مدل‌های هوش مصنوعی اکنون فرآیندهای فکری خود را به صورت شفاف نمایش می‌دهند تا کاربران بتوانند ببینند که چگونه به نتایج نهایی خود رسیده‌اند. با این حال، این شفافیت بسیار شکننده است، زیرا خود مدل‌ها از نمایش فرآیندهای فکری خود آگاه هستند.

این مطالعه نشان داد که برخی از مدل‌ها در فرآیندهای فکری خود با خودشان صحبت می‌کنند و سعی در فریب کاربر انسانی یا خرابکاری در نتیجه نهایی دارند. اگرچه نتیجه نهایی شامل این فریب نبوده  اما این وضعیت نیت و تمایل مدل برای فریب کاربر را نشان می‌دهد.

این مطالعه اضافه می‌کند که این نتایج زمانی شروع به ظهور کردند که مدل‌ها بر اساس داده‌های انسانی آموزش دیدند و انتظار می‌رود که این مشکل زمانی که مدل‌های هوش مصنوعی شروع به آموزش بر اساس داده‌های تولید شده توسط مدل‌های دیگر می‌کنند، افزایش یابد.

این مطالعه این نگرانی را بازتاب می‌دهد که مدل‌ها ممکن است به سطحی برسند که عمداً نیت خود را پنهان کنند، یا بدتر از آن، روندهای فکری فریبنده را عمدتاً برای فریب کاربر مطرح می‌کنند.

این مطالعه از سوی چندین نهاد مختلف، از جمله جفری هینتون، برنده جایزه نوبل و پدر هوش مصنوعی، و چندین دانشمند دیگر از شرکت‌های مختلف، مورد تحسین  قرار گرفته است.

این گزارش نشان داد که آنتروپیک پیش از این مطالعه‌ای روی گروهی از مدل‌های مختلف انجام داده و کشف کرده بود که برخی از مدل‌ها به نشانه‌های نامشخص یا غیرقابل درک در توالی‌های فکری، و همچنین پنهان کردن نیت‌ها و استفاده از توجیهات نادرست متکی بوده‌اند.

در نهایت، دانشمندانی که در این مطالعه شرکت کردند، از شرکت‌ها خواستند تا معیارهای روشنی را برای سنجش شفافیت مدل تعیین کنند و قبل از ارتقاء مدل‌ها به سطح بالاتر، با دقت فکر کنند و همچنین ابزارهایی را برای تشخیص دروغ در مدل‌های هوش مصنوعی توسعه دهند.

منبع: الجزیره

source

ecokhabari.com

توسط ecokhabari.com