Wp Header Logo 4561.png

شفقنا- جفری هینتون، پیشگام علوم رایانه و معروف به پدرخوانده هوش مصنوعی، هشدار داده است که احتمال نابودی انسان توسط هوش مصنوعی در سه دهه آینده به‌طور قابل‌توجهی افزایش یافته و اکنون بین ۱۰ تا ۲۰ درصد برآورد می‌شود.

به گزارش سرویس ترجمه شفقنا، هینتون که در سال جاری جایزه نوبل فیزیک را به دلیل دستاوردهای خود در این حوزه دریافت کرد، اعلام کرده است که سرعت پیشرفت این فناوری بسیار فراتر از پیش‌بینی‌ها بوده است.

او اظهار داشت: «ما هیچ‌گاه مجبور نبوده‌ایم با موجوداتی که هوشمندتر از خودمان هستند روبه‌رو شویم. انسان‌ها در برابر هوش مصنوعی مانند کودکان نوپا خواهند بود.»

این دانشمند متولد لندن و استاد بازنشسته دانشگاه تورنتو، سال گذشته شغل خود در گوگل را ترک کرد تا آزادانه درباره خطرات احتمالی توسعه بی‌مهار هوش مصنوعی صحبت کند.

او هشدار داد که بازیگران مخرب می‌توانند از این فناوری برای آسیب رساندن به دیگران استفاده کنند و ایجاد هوش عمومی مصنوعی (AGI) – سیستمی که هوش آن از انسان پیشی می‌گیرد – ممکن است به تهدیدی وجودی برای بشر تبدیل شود.

هینتون در ادامه گفت: «وضعیت کنونی به گونه‌ای است که بیشتر کارشناسان این حوزه معتقدند طی ۲۰ سال آینده، سیستم‌هایی ایجاد خواهد شد که از انسان‌ها باهوش‌تر باشند. این فکر بسیار ترسناک است.»

وی همچنین خاطرنشان کرد که سرعت پیشرفت در این حوزه بسیار سریع‌تر از انتظارات اولیه است و بر ضرورت قوانین سختگیرانه دولتی برای کنترل توسعه هوش مصنوعی تأکید کرد.

این دانشمند بریتانیایی-کانادایی بر این باور است که اتکا به بازار آزاد برای تضمین امنیت هوش مصنوعی کافی نیست و تنها دولت‌ها می‌توانند با وضع قوانین مناسب، شرکت‌های بزرگ را به تحقیقات بیشتر در زمینه ایمنی هوش مصنوعی وادار کنند. او گفت: «دست نامرئی بازار ما را ایمن نگاه نخواهد داشت.»

در حالی که پدرخوانده هوش مصنوعی به شدت نگران آینده است، برخی از همکاران او دیدگاهی متفاوت دارند. یان لکون، دانشمند ارشد هوش مصنوعی شرکت متا، بر این باور است که هوش مصنوعی به جای تهدید، می‌تواند به بقای بشر کمک کند.

با این حال، هشدارهای هینتون به عنوان زنگ خطری برای سیاست‌گذاران و صنعت فناوری تلقی می‌شود تا از تهدیدهای احتمالی هوش مصنوعی جلوگیری کرده و آینده‌ای ایمن‌تر برای بشر فراهم کنند.

این خبر را در گاردین ببینید.

source

ecokhabari.com

توسط ecokhabari.com