Wp Header Logo 666.png

ادعای OpenAI درباره حل مسائل دشوار اردوش توسط GPT-5 نادرست از آب درآمد و مدل تنها مقالات موجود را یافته بود. این ماجرا انتقاد گسترده جامعه علمی را برانگیخت.

به گزارش تجارت نیوز، شرکت OpenAI بار دیگر در مرکز یک مناقشه بزرگ علمی قرار گرفته است. چند تن از پژوهشگران ارشد این شرکت مدعی شده بودند که مدل جدید هوش مصنوعی آن، یعنی GPT-5، موفق به حل چندین مساله حل‌نشده ریاضی شده است؛ ادعایی که به سرعت از سوی جامعه ریاضی‌دانان و متخصصان هوش مصنوعی رد شد.

ماجرا از جایی آغاز شد که کوین وِیل، معاون رئیس OpenAI، در شبکه ایکس (توییتر سابق) نوشت که GPT-5 توانسته ده مساله از مسائل مشهور «اردوش» را حل کند و در یازده مورد دیگر نیز پیشرفت‌هایی داشته است. این پست، که بعداً حذف شد، موجی از هیجان و تردید را در میان پژوهشگران ریاضی و فعالان حوزه هوش مصنوعی برانگیخت.

مسائل اردوش به مجموعه‌ای از پرسش‌های بسیار دشوار در شاخه‌های مختلف نظریه اعداد و ترکیبیات گفته می‌شود که توسط ریاضی‌دان مجارستانی پل اردوش مطرح شده‌اند و دهه‌هاست ذهن محققان را به خود مشغول کرده‌اند.

اما این ادعا که GPT-5 توانسته چنین مسائل دشواری را حل کند، خیلی زود بی‌اساس از آب درآمد. توماس بلوم، ریاضی‌دان دانشگاه آکسفورد و مدیر پایگاه داده مسائل اردوش، توضیح داد که فهرست مسائل «باز» در وب‌سایت او صرفاً به این معناست که وی از راه‌حل آن‌ها اطلاع ندارد، نه اینکه در کل جامعه علمی حل‌نشده باقی مانده باشند.

بلوم در واکنش به اظهارات مدیران OpenAI گفت: «این ادعا یک برداشت کاملاً نادرست از واقعیت است. مدل GPT-5 هیچ اثبات جدیدی ارائه نکرده است، بلکه صرفاً به مقالات موجودی اشاره کرده که پیش‌تر این مسائل را حل کرده بودند و من از آن‌ها بی‌اطلاع بودم.»

به بیان دیگر، عملکرد GPT-5 بیشتر شبیه به جست‌وجوی هوشمند در منابع علمی بوده است تا کشف یا حل مسئله‌ای تازه. پس از انتشار توضیحات بلوم، سباستین بوبک، یکی از پژوهشگران OpenAI که در ابتدا این موفقیت را تبلیغ کرده بود، نیز پذیرفت که مدل تنها توانسته راه‌حل‌های موجود در مقالات علمی را بیابد، نه اینکه خود راه‌حلی نو ارائه کند.

با این حال، او از توانایی مدل دفاع کرد و گفت: «یافتن مراجع مرتبط در انبوه مقالات کار ساده‌ای نیست و GPT-5 در این زمینه عملکرد قابل توجهی داشته است.»

اما این توضیحات نتوانست از موج انتقادات بکاهد. یان لِکون، دانشمند ارشد هوش مصنوعی در شرکت متا و یکی از پیشگامان یادگیری عمیق، در واکنشی تند در شبکه‌های اجتماعی این اتفاق را نشانه «اغراق‌گویی بیش از حد» OpenAI دانست. دمِیس هاسابیس، مدیرعامل گوگل دیپ‌مایند نیز این ماجرا را «شرم‌آور» توصیف کرد و بر لزوم دقت علمی پیش از انتشار چنین ادعاهایی تأکید کرد.

این جنجال دوباره بحث‌هایی جدی را درباره شفافیت، اعتبارسنجی و دقت علمی در حوزه هوش مصنوعی برانگیخت. بسیاری از متخصصان هشدار می‌دهند که با رشد توانایی مدل‌های زبانی بزرگ، مرز میان کشف واقعی و بازیابی خودکار اطلاعات بیش از پیش مبهم می‌شود.

منتقدان یادآور شدند که OpenAI در سال‌های گذشته نیز چندین‌بار به دلیل انتشار ادعاهای بزرگ بدون ارائه شواهد علمی کافی مورد انتقاد قرار گرفته است. به گفته برخی از پژوهشگران، این شرکت گاهی بیش از آنکه به ارائه جزئیات فنی و داده‌های قابل بررسی بپردازد، بر ایجاد هیجان رسانه‌ای متمرکز می‌شود.

با وجود این خطا، برخی از کارشناسان معتقدند که عملکرد GPT-5 در جست‌وجو و ترکیب اطلاعات علمی همچنان دستاوردی ارزشمند است. توانایی این مدل در شناسایی مقالات مرتبط و ایجاد ارتباط میان یافته‌های موجود می‌تواند در پژوهش‌های ریاضی و علمی مفید باشد، هرچند نباید آن را با حل مسائل واقعی اشتباه گرفت.

بلوم نیز در پایان نوشت: «اگر یک مدل بتواند به شکل مؤثر نتایج مرتبط را از دل ادبیات علمی بیرون بکشد، بدون شک ابزار مفیدی است، اما این با حل یک مسئله باز تفاوت دارد.»

تا لحظه انتشار این خبر، OpenAI هیچ بیانیه رسمی برای شفاف‌سازی یا عذرخواهی منتشر نکرده و تنها پست اولیه مدیر خود را حذف کرده است.

این رخداد بار دیگر یادآور اهمیت فروتنی علمی و لزوم راستی‌آزمایی دقیق در عصر هوش مصنوعی است. در حالی که GPT-5 توانایی‌های چشمگیری در استدلال و تحلیل دارد، مسیر رسیدن به کشف‌های واقعی هنوز نیازمند قضاوت، اعتبارسنجی و دقت انسانی است.

source

ecokhabari.com

توسط ecokhabari.com