شفقنا- طبق گزارشی که توسط ونچر بیت منتشر شده است، مطالعهای از سوی اپن ای آی، گوگل و آنتروپیک نجام شده، در مورد ورود مدلهای هوش مصنوعی به مرحله تفکر عمیق و پنهان ساختن الگوهای تفکر خود هشدار می دهد.
به گزارش شفقنا به نقل از الجزیره، این گزارش نشان میدهد به زوده پنجره برای درک مدلهای هوش مصنوعی با تفکر عمیق برای همیشه بسته میشود و پس از آن، دیگر قادر به درک نحوه تفکر این مدلها و نحوه رسیدن آنها به نتایج نهایی نخواهیم بود.
این مطالعه شامل همکاری بیش از ۴۰ دانشمند در بخشهای مختلف این سه شرکت بوده و در آن تلاش شده است تا فرآیند تصمیمگیری و تفکر عمیقی درک شود که مدلهای هوش مصنوعی قبل از ارائه نتایج نهایی خود دنبال میکنند.
این مطالعه نشان میدهد که مدلهای هوش مصنوعی اکنون فرآیندهای فکری خود را به صورت شفاف نمایش میدهند تا کاربران بتوانند ببینند که چگونه به نتایج نهایی خود رسیدهاند. با این حال، این شفافیت بسیار شکننده است، زیرا خود مدلها از نمایش فرآیندهای فکری خود آگاه هستند.
این مطالعه نشان داد که برخی از مدلها در فرآیندهای فکری خود با خودشان صحبت میکنند و سعی در فریب کاربر انسانی یا خرابکاری در نتیجه نهایی دارند. اگرچه نتیجه نهایی شامل این فریب نبوده اما این وضعیت نیت و تمایل مدل برای فریب کاربر را نشان میدهد.
این مطالعه اضافه میکند که این نتایج زمانی شروع به ظهور کردند که مدلها بر اساس دادههای انسانی آموزش دیدند و انتظار میرود که این مشکل زمانی که مدلهای هوش مصنوعی شروع به آموزش بر اساس دادههای تولید شده توسط مدلهای دیگر میکنند، افزایش یابد.
این مطالعه این نگرانی را بازتاب میدهد که مدلها ممکن است به سطحی برسند که عمداً نیت خود را پنهان کنند، یا بدتر از آن، روندهای فکری فریبنده را عمدتاً برای فریب کاربر مطرح میکنند.
این مطالعه از سوی چندین نهاد مختلف، از جمله جفری هینتون، برنده جایزه نوبل و پدر هوش مصنوعی، و چندین دانشمند دیگر از شرکتهای مختلف، مورد تحسین قرار گرفته است.
این گزارش نشان داد که آنتروپیک پیش از این مطالعهای روی گروهی از مدلهای مختلف انجام داده و کشف کرده بود که برخی از مدلها به نشانههای نامشخص یا غیرقابل درک در توالیهای فکری، و همچنین پنهان کردن نیتها و استفاده از توجیهات نادرست متکی بودهاند.
در نهایت، دانشمندانی که در این مطالعه شرکت کردند، از شرکتها خواستند تا معیارهای روشنی را برای سنجش شفافیت مدل تعیین کنند و قبل از ارتقاء مدلها به سطح بالاتر، با دقت فکر کنند و همچنین ابزارهایی را برای تشخیص دروغ در مدلهای هوش مصنوعی توسعه دهند.
منبع: الجزیره
source