ادعای OpenAI درباره حل مسائل دشوار اردوش توسط GPT-5 نادرست از آب درآمد و مدل تنها مقالات موجود را یافته بود. این ماجرا انتقاد گسترده جامعه علمی را برانگیخت.
به گزارش تجارت نیوز، شرکت OpenAI بار دیگر در مرکز یک مناقشه بزرگ علمی قرار گرفته است. چند تن از پژوهشگران ارشد این شرکت مدعی شده بودند که مدل جدید هوش مصنوعی آن، یعنی GPT-5، موفق به حل چندین مساله حلنشده ریاضی شده است؛ ادعایی که به سرعت از سوی جامعه ریاضیدانان و متخصصان هوش مصنوعی رد شد.
ماجرا از جایی آغاز شد که کوین وِیل، معاون رئیس OpenAI، در شبکه ایکس (توییتر سابق) نوشت که GPT-5 توانسته ده مساله از مسائل مشهور «اردوش» را حل کند و در یازده مورد دیگر نیز پیشرفتهایی داشته است. این پست، که بعداً حذف شد، موجی از هیجان و تردید را در میان پژوهشگران ریاضی و فعالان حوزه هوش مصنوعی برانگیخت.
مسائل اردوش به مجموعهای از پرسشهای بسیار دشوار در شاخههای مختلف نظریه اعداد و ترکیبیات گفته میشود که توسط ریاضیدان مجارستانی پل اردوش مطرح شدهاند و دهههاست ذهن محققان را به خود مشغول کردهاند.
اما این ادعا که GPT-5 توانسته چنین مسائل دشواری را حل کند، خیلی زود بیاساس از آب درآمد. توماس بلوم، ریاضیدان دانشگاه آکسفورد و مدیر پایگاه داده مسائل اردوش، توضیح داد که فهرست مسائل «باز» در وبسایت او صرفاً به این معناست که وی از راهحل آنها اطلاع ندارد، نه اینکه در کل جامعه علمی حلنشده باقی مانده باشند.
بلوم در واکنش به اظهارات مدیران OpenAI گفت: «این ادعا یک برداشت کاملاً نادرست از واقعیت است. مدل GPT-5 هیچ اثبات جدیدی ارائه نکرده است، بلکه صرفاً به مقالات موجودی اشاره کرده که پیشتر این مسائل را حل کرده بودند و من از آنها بیاطلاع بودم.»
به بیان دیگر، عملکرد GPT-5 بیشتر شبیه به جستوجوی هوشمند در منابع علمی بوده است تا کشف یا حل مسئلهای تازه. پس از انتشار توضیحات بلوم، سباستین بوبک، یکی از پژوهشگران OpenAI که در ابتدا این موفقیت را تبلیغ کرده بود، نیز پذیرفت که مدل تنها توانسته راهحلهای موجود در مقالات علمی را بیابد، نه اینکه خود راهحلی نو ارائه کند.
با این حال، او از توانایی مدل دفاع کرد و گفت: «یافتن مراجع مرتبط در انبوه مقالات کار سادهای نیست و GPT-5 در این زمینه عملکرد قابل توجهی داشته است.»
اما این توضیحات نتوانست از موج انتقادات بکاهد. یان لِکون، دانشمند ارشد هوش مصنوعی در شرکت متا و یکی از پیشگامان یادگیری عمیق، در واکنشی تند در شبکههای اجتماعی این اتفاق را نشانه «اغراقگویی بیش از حد» OpenAI دانست. دمِیس هاسابیس، مدیرعامل گوگل دیپمایند نیز این ماجرا را «شرمآور» توصیف کرد و بر لزوم دقت علمی پیش از انتشار چنین ادعاهایی تأکید کرد.
این جنجال دوباره بحثهایی جدی را درباره شفافیت، اعتبارسنجی و دقت علمی در حوزه هوش مصنوعی برانگیخت. بسیاری از متخصصان هشدار میدهند که با رشد توانایی مدلهای زبانی بزرگ، مرز میان کشف واقعی و بازیابی خودکار اطلاعات بیش از پیش مبهم میشود.
منتقدان یادآور شدند که OpenAI در سالهای گذشته نیز چندینبار به دلیل انتشار ادعاهای بزرگ بدون ارائه شواهد علمی کافی مورد انتقاد قرار گرفته است. به گفته برخی از پژوهشگران، این شرکت گاهی بیش از آنکه به ارائه جزئیات فنی و دادههای قابل بررسی بپردازد، بر ایجاد هیجان رسانهای متمرکز میشود.
با وجود این خطا، برخی از کارشناسان معتقدند که عملکرد GPT-5 در جستوجو و ترکیب اطلاعات علمی همچنان دستاوردی ارزشمند است. توانایی این مدل در شناسایی مقالات مرتبط و ایجاد ارتباط میان یافتههای موجود میتواند در پژوهشهای ریاضی و علمی مفید باشد، هرچند نباید آن را با حل مسائل واقعی اشتباه گرفت.
بلوم نیز در پایان نوشت: «اگر یک مدل بتواند به شکل مؤثر نتایج مرتبط را از دل ادبیات علمی بیرون بکشد، بدون شک ابزار مفیدی است، اما این با حل یک مسئله باز تفاوت دارد.»
تا لحظه انتشار این خبر، OpenAI هیچ بیانیه رسمی برای شفافسازی یا عذرخواهی منتشر نکرده و تنها پست اولیه مدیر خود را حذف کرده است.
این رخداد بار دیگر یادآور اهمیت فروتنی علمی و لزوم راستیآزمایی دقیق در عصر هوش مصنوعی است. در حالی که GPT-5 تواناییهای چشمگیری در استدلال و تحلیل دارد، مسیر رسیدن به کشفهای واقعی هنوز نیازمند قضاوت، اعتبارسنجی و دقت انسانی است.
source