شفقنا آینده- کارشناسان خلع سلاح سازمان ملل و رهبران شرکتهای «فناوری بزرگ» تاکید کردهاند که مسابقه هوش مصنوعی (AI) باید کند شود و شرکتهای فناوری اطلاعات باید در عوض روی تصویر بزرگتر تمرکز کنند تا اطمینان حاصل کنند که از این فناوری در میدان جنگ سوء استفاده نمیشود.
به گزارش شفقنا از www.miragenews.com، گوسیا لوی، معاون رئیس مؤسسه تحقیقاتی سازمان ملل برای خلع سلاح (UNIDIR) گفت، تعامل با جامعه فناوری برای سیاستگذاران دفاعی «خوبی نیست» – «کاملاً ضروری است که این جامعه از همان ابتدا در طراحی، توسعه و استفاده از چارچوبهایی که ایمنی و امنیت سیستمها و قابلیتهای هوش مصنوعی را هدایت میکنند، درگیر شود.»
او در کنفرانس اخیر جهانی امنیت و اخلاق هوش مصنوعی که به میزبانی UNIDIR در ژنو برگزار شد، بر اهمیت نصب نردههای محافظ موثر در حالی که جهان در حال عبور از آنچه اغلب “لحظه اوپنهایمر” هوش مصنوعی نامیده میشود – با اشاره به رابرت اوپنهایمر، فیزیکدان هستهای آمریکایی که بیشتر به خاطر نقش محوری خود در ساخت بمب اتمی شناخته میشود، تاکید کرد.
این مقام UNIDIR تاکید کرد، نظارت لازم است تا پیشرفتهای هوش مصنوعی به حقوق بشر، قوانین بینالملل و اخلاق – به ویژه در زمینه سلاحهای هدایتشونده با هوش مصنوعی – احترام بگذارد تا تضمین شود که این فناوریهای قدرتمند به شیوهای کنترلشده و مسئولانه توسعه مییابند.
فناوری ناقص
هوش مصنوعی قبلاً یک معضل امنیتی برای دولت ها و ارتش های سراسر جهان ایجاد کرده است.
Arnaud Valli، رئیس امور عمومی Comand AI هشدار داد که ماهیت استفاده دوگانه فناوریهای هوش مصنوعی – جایی که میتوان آنها را در محیطهای غیرنظامی و نظامی به طور یکسان مورد استفاده قرار داد – به این معنی است که توسعهدهندگان ممکن است ارتباط خود را با واقعیتهای شرایط میدان نبرد از دست بدهند، جایی که برنامهنویسی آنها ممکن است به قیمت جان خود را از دست بدهند.
این ابزارها هنوز در مراحل ابتدایی خود هستند، اما مدتهاست که این ترس را برانگیختهاند که میتوان از آنها برای تصمیمگیری مرگ یا زندگی در شرایط جنگ استفاده کرد و نیاز به تصمیمگیری و مسئولیتپذیری انسانی را از بین برد. از این رو تقاضاهای فزاینده برای تنظیم مقررات، برای اطمینان از اجتناب از اشتباهاتی که می تواند منجر به عواقب فاجعه بار شود، وجود دارد.
دیوید سالی، مدیر عامل شرکت Advai مستقر در لندن، گفت: “ما می بینیم که این سیستم ها همیشه از کار می افتند.”
او خاطرنشان کرد: «بنابراین، ایجاد اشتباه در آنها آنقدرها هم که مردم گاهی فکر میکنند دشوار نیست.
یک مسئولیت مشترک
مایکل کریمیان، مدیر دیپلماسی دیجیتال گفت: در مایکروسافت، تیم ها بر اصول اصلی ایمنی، امنیت، فراگیر بودن، انصاف و پاسخگویی تمرکز دارند.
آقای کریمیان توضیح داد که غول فناوری ایالات متحده که توسط بیل گیتس تأسیس شده است، محدودیت هایی را برای فناوری تشخیص چهره در زمان واقعی مورد استفاده توسط مجریان قانون قرار می دهد که می تواند باعث آسیب روحی یا جسمی شود.
او در این مراسم در ژنو گفت که باید پادمان های روشنی اعمال شود و شرکت ها باید برای شکستن سیلوها همکاری کنند.
آقای کریمیان، که شرکتش با UNIDIR برای اطمینان از انطباق هوش مصنوعی با حقوق بشر بینالمللی، همکاری میکند، گفت: “نوآوری چیزی نیست که فقط در یک سازمان اتفاق بیفتد. مسئولیت مشترکی وجود دارد.”
پارادوکس نظارت
بخشی از معادله این است که فناوریها با سرعتی بسیار سریع در حال تکامل هستند، کشورها در تلاش برای ادامه دادن هستند.
سلینا نور عبدالله، رئیس برنامه ریزی استراتژیک و مشاور ویژه دبیرکل در اتحادیه بین المللی مخابرات (ITU) گفت: «توسعه هوش مصنوعی از توانایی ما برای مدیریت ریسک های متعدد خود پیشی می گیرد.
خانم عبدالله گفت: «ما باید به پارادوکس حاکمیت هوش مصنوعی بپردازیم، با توجه به اینکه قوانین گاهی از فناوری عقب میمانند، گفتوگوی مستمر بین سیاستگذاران و کارشناسان فنی را برای ایجاد ابزارهایی برای حکومتداری مؤثر ضروری میسازد.
شکاف های مسئولیت پذیری
بیش از یک دهه پیش در سال 2013، کریستف هینز، کارشناس مشهور حقوق بشر، در گزارشی در مورد رباتیک خودمختار مرگبار (LARs) هشدار داد که “خارج کردن انسان ها از حلقه، خطر خارج کردن بشریت از حلقه را نیز به همراه دارد”.
پگی هیکس، مدیر بخش حق توسعه دفتر حقوق بشر سازمان ملل متحد (OHCHR)، تاکید کرد که امروزه تبدیل قضاوت های حقوقی وابسته به زمینه به یک برنامه نرم افزاری دشوار نیست و هنوز هم بسیار مهم است که تصمیمات “زندگی و مرگ” توسط انسان ها گرفته شود نه ربات ها.
آینه سازی جامعه
در حالی که رهبران بزرگ فناوری و حاکمیت عمدتاً به اصول راهنمای سیستمهای دفاعی هوش مصنوعی نگاه میکنند، ایدهآلها ممکن است با نتیجه شرکتها در تضاد باشد.
آقای والی از Comand AI گفت: “ما یک شرکت خصوصی هستیم – به دنبال سودآوری نیز هستیم.”
او افزود: “قابلیت اطمینان سیستم گاهی اوقات بسیار سخت است.” اما وقتی در این بخش کار میکنید، مسئولیت میتواند بسیار زیاد باشد، کاملاً عظیم.»
چالش های بی پاسخ
در حالی که بسیاری از توسعه دهندگان متعهد به طراحی الگوریتم هایی هستند که به گفته آقای سالی “منصفانه، ایمن، قوی” باشند – هیچ نقشه راهی برای اجرای این استانداردها وجود ندارد – و شرکت ها حتی ممکن است ندانند دقیقا به چه هدفی دست می یابند.
آقای سالی با یادآوری سیاستگذاران که “هنوز هوش مصنوعی در مراحل اولیه است” گفت: “همه دیکته می کنند که چگونه پذیرش باید انجام شود، اما آنها واقعا توضیح نمی دهند که چگونه باید اتفاق بیفتد.”
فناوریهای بزرگ و سیاستگذاران باید کوچکنمایی کنند و تصویر بزرگتر را در نظر بگیرند.
او ادامه داد: «استحکام برای یک سیستم یک هدف فوقالعاده فنی و واقعاً چالش برانگیز برای تعیین است و در حال حاضر بیپاسخ است».
بدون “اثر انگشت” هوش مصنوعی
آقای سالی که خود را «حامی بزرگ مقررات» سیستمهای هوش مصنوعی توصیف میکرد، قبلاً برای سازمان پیمان جامع منع آزمایشهای هستهای تحت دستور سازمان ملل در وین کار میکرد که بر انجام آزمایشهای هستهای نظارت میکرد.
اما او میگوید شناسایی سلاحهای هدایتشونده با هوش مصنوعی چالشی کاملاً جدید ایجاد میکند که سلاحهای هستهای – که دارای امضاهای پزشکی قانونی هستند – آن را ندارند.
مدیرعامل گفت: «یک مشکل عملی از نظر نحوه نظارت بر هر نوع مقررات در سطح بینالمللی وجود دارد. “این چیزی است که هیچ کس نمی خواهد به آن بپردازد. اما تا زمانی که به آن رسیدگی نشود… من فکر می کنم که این یک مانع بزرگ و بزرگ خواهد بود.”
حفاظت از آینده
نمایندگان کنفرانس UNIDIR بر نیاز به آینده نگری استراتژیک برای درک خطرات ناشی از فناوری های پیشرفته که اکنون متولد می شوند، اصرار داشتند.
آقای الیاس از شرکت اصرار داشت که برای موزیلا، که نسل جدید فنآوران را آموزش میدهد، توسعهدهندگان آینده “باید از آنچه با این فناوری قدرتمند انجام میدهند و چه چیزی میسازند آگاه باشند”.
دانشگاهیان مانند موزس ب. خانییل از دانشگاه استلنبوش در آفریقای جنوبی معتقدند که دانشگاه ها نیز “مسئولیت عالی” را برای حفظ ارزش های اخلاقی اصلی بر عهده دارند.
دکتر Khanyile، مدیر واحد تحقیقات هوش مصنوعی دفاعی در دانشگاه Stellenbosch، گفت که منافع ارتش – کاربران مورد نظر این فناوری ها – و دولت ها به عنوان تنظیم کننده باید “هماهنگ شوند”.
آنها باید فناوری هوش مصنوعی را ابزاری برای خیر بدانند و بنابراین باید به نیرویی برای خیر تبدیل شوند.»
کشورهای درگیر
دیپلمات هایی از چین، هلند، پاکستان، فرانسه، ایتالیا و کره جنوبی نیز در پاسخ به این سوال که چه اقدامی برای ایجاد اعتماد بین کشورها انجام خواهند داد.
شن جیان، سفیر فوقالعاده و تام الاختیار (خلع سلاح) و معاون نماینده دائم جمهوری خلق چین گفت: «ما باید یک خط امنیت ملی را از نظر کنترل صادرات فناوریهای پیشرفته تعریف کنیم».
مسیرهای تحقیق و توسعه هوش مصنوعی آینده باید شامل سایر زمینه های نوظهور مانند فیزیک و علوم اعصاب نیز باشد.
رابرت در دن بوش، سفیر خلع سلاح و نماینده دائم هلند در کنفرانس خلع سلاح، گفت: “هوش مصنوعی پیچیده است، اما دنیای واقعی حتی پیچیده تر است.” به همین دلیل، میتوانم بگویم که نگاه کردن به هوش مصنوعی در همگرایی با سایر فناوریها و بهویژه سایبری، کوانتومی و فضا نیز مهم است.»
بیانیه خبری سازمان ملل متحد. این مطالب از سازمان/نویسنده (نویسندگان) مبدأ ممکن است ماهیت لحظه به لحظه داشته باشد و برای وضوح، سبک و طولانی ویرایش شده باشد. Mirage.News مواضع یا طرفهای نهادی را اتخاذ نمیکند و تمام دیدگاهها، مواضع و نتیجهگیریهای بیان شده در اینجا صرفاً متعلق به نویسنده یا نویسندهها است. بهطور کامل اینجا را ببینید.
منبع: www.miragenews.com
source