Wp Header Logo 733.png

شفقنا آینده- کارشناسان خلع سلاح سازمان ملل و رهبران شرکت‌های «فناوری بزرگ» تاکید کرده‌اند که مسابقه هوش مصنوعی (AI) باید کند شود و شرکت‌های فناوری اطلاعات باید در عوض روی تصویر بزرگ‌تر تمرکز کنند تا اطمینان حاصل کنند که از این فناوری در میدان جنگ سوء استفاده نمی‌شود.

به گزارش شفقنا از www.miragenews.com، گوسیا لوی، معاون رئیس مؤسسه تحقیقاتی سازمان ملل برای خلع سلاح (UNIDIR) گفت، تعامل با جامعه فناوری برای سیاستگذاران دفاعی «خوبی نیست» – «کاملاً ضروری است که این جامعه از همان ابتدا در طراحی، توسعه و استفاده از چارچوب‌هایی که ایمنی و امنیت سیستم‌ها و قابلیت‌های هوش مصنوعی را هدایت می‌کنند، درگیر شود.»

او در کنفرانس اخیر جهانی امنیت و اخلاق هوش مصنوعی که به میزبانی UNIDIR در ژنو برگزار شد، بر اهمیت نصب نرده‌های محافظ موثر در حالی که جهان در حال عبور از آنچه اغلب “لحظه اوپنهایمر” هوش مصنوعی نامیده می‌شود – با اشاره به رابرت اوپنهایمر، فیزیکدان هسته‌ای آمریکایی که بیشتر به خاطر نقش محوری خود در ساخت بمب اتمی شناخته می‌شود، تاکید کرد.

این مقام UNIDIR تاکید کرد، نظارت لازم است تا پیشرفت‌های هوش مصنوعی به حقوق بشر، قوانین بین‌الملل و اخلاق – به ویژه در زمینه سلاح‌های هدایت‌شونده با هوش مصنوعی – احترام بگذارد تا تضمین شود که این فناوری‌های قدرتمند به شیوه‌ای کنترل‌شده و مسئولانه توسعه می‌یابند.

فناوری ناقص

هوش مصنوعی قبلاً یک معضل امنیتی برای دولت ها و ارتش های سراسر جهان ایجاد کرده است.

Arnaud Valli، رئیس امور عمومی Comand AI هشدار داد که ماهیت استفاده دوگانه فناوری‌های هوش مصنوعی – جایی که می‌توان آنها را در محیط‌های غیرنظامی و نظامی به طور یکسان مورد استفاده قرار داد – به این معنی است که توسعه‌دهندگان ممکن است ارتباط خود را با واقعیت‌های شرایط میدان نبرد از دست بدهند، جایی که برنامه‌نویسی آنها ممکن است به قیمت جان خود را از دست بدهند.

این ابزارها هنوز در مراحل ابتدایی خود هستند، اما مدت‌هاست که این ترس را برانگیخته‌اند که می‌توان از آن‌ها برای تصمیم‌گیری مرگ یا زندگی در شرایط جنگ استفاده کرد و نیاز به تصمیم‌گیری و مسئولیت‌پذیری انسانی را از بین برد. از این رو تقاضاهای فزاینده برای تنظیم مقررات، برای اطمینان از اجتناب از اشتباهاتی که می تواند منجر به عواقب فاجعه بار شود، وجود دارد.

دیوید سالی، مدیر عامل شرکت Advai مستقر در لندن، گفت: “ما می بینیم که این سیستم ها همیشه از کار می افتند.”

او خاطرنشان کرد: «بنابراین، ایجاد اشتباه در آنها آنقدرها هم که مردم گاهی فکر می‌کنند دشوار نیست.

یک مسئولیت مشترک

مایکل کریمیان، مدیر دیپلماسی دیجیتال گفت: در مایکروسافت، تیم ها بر اصول اصلی ایمنی، امنیت، فراگیر بودن، انصاف و پاسخگویی تمرکز دارند.

آقای کریمیان توضیح داد که غول فناوری ایالات متحده که توسط بیل گیتس تأسیس شده است، محدودیت هایی را برای فناوری تشخیص چهره در زمان واقعی مورد استفاده توسط مجریان قانون قرار می دهد که می تواند باعث آسیب روحی یا جسمی شود.

او در این مراسم در ژنو گفت که باید پادمان های روشنی اعمال شود و شرکت ها باید برای شکستن سیلوها همکاری کنند.

آقای کریمیان، که شرکتش با UNIDIR برای اطمینان از انطباق هوش مصنوعی با حقوق بشر بین‌المللی، همکاری می‌کند، گفت: “نوآوری چیزی نیست که فقط در یک سازمان اتفاق بیفتد. مسئولیت مشترکی وجود دارد.”

پارادوکس نظارت
بخشی از معادله این است که فناوری‌ها با سرعتی بسیار سریع در حال تکامل هستند، کشورها در تلاش برای ادامه دادن هستند.

سلینا نور عبدالله، رئیس برنامه ریزی استراتژیک و مشاور ویژه دبیرکل در اتحادیه بین المللی مخابرات (ITU) گفت: «توسعه هوش مصنوعی از توانایی ما برای مدیریت ریسک های متعدد خود پیشی می گیرد.

خانم عبدالله گفت: «ما باید به پارادوکس حاکمیت هوش مصنوعی بپردازیم، با توجه به اینکه قوانین گاهی از فناوری عقب می‌مانند، گفت‌وگوی مستمر بین سیاست‌گذاران و کارشناسان فنی را برای ایجاد ابزارهایی برای حکومت‌داری مؤثر ضروری می‌سازد.

شکاف های مسئولیت پذیری
بیش از یک دهه پیش در سال 2013، کریستف هینز، کارشناس مشهور حقوق بشر، در گزارشی در مورد رباتیک خودمختار مرگبار (LARs) هشدار داد که “خارج کردن انسان ها از حلقه، خطر خارج کردن بشریت از حلقه را نیز به همراه دارد”.

پگی هیکس، مدیر بخش حق توسعه دفتر حقوق بشر سازمان ملل متحد (OHCHR)، تاکید کرد که امروزه تبدیل قضاوت های حقوقی وابسته به زمینه به یک برنامه نرم افزاری دشوار نیست و هنوز هم بسیار مهم است که تصمیمات “زندگی و مرگ” توسط انسان ها گرفته شود نه ربات ها.

آینه سازی جامعه
در حالی که رهبران بزرگ فناوری و حاکمیت عمدتاً به اصول راهنمای سیستم‌های دفاعی هوش مصنوعی نگاه می‌کنند، ایده‌آل‌ها ممکن است با نتیجه شرکت‌ها در تضاد باشد.

آقای والی از Comand AI گفت: “ما یک شرکت خصوصی هستیم – به دنبال سودآوری نیز هستیم.”

او افزود: “قابلیت اطمینان سیستم گاهی اوقات بسیار سخت است.” اما وقتی در این بخش کار می‌کنید، مسئولیت می‌تواند بسیار زیاد باشد، کاملاً عظیم.»

چالش های بی پاسخ
در حالی که بسیاری از توسعه دهندگان متعهد به طراحی الگوریتم هایی هستند که به گفته آقای سالی “منصفانه، ایمن، قوی” باشند – هیچ نقشه راهی برای اجرای این استانداردها وجود ندارد – و شرکت ها حتی ممکن است ندانند دقیقا به چه هدفی دست می یابند.

آقای سالی با یادآوری سیاستگذاران که “هنوز هوش مصنوعی در مراحل اولیه است” گفت: “همه دیکته می کنند که چگونه پذیرش باید انجام شود، اما آنها واقعا توضیح نمی دهند که چگونه باید اتفاق بیفتد.”

فناوری‌های بزرگ و سیاست‌گذاران باید کوچک‌نمایی کنند و تصویر بزرگ‌تر را در نظر بگیرند.

او ادامه داد: «استحکام برای یک سیستم یک هدف فوق‌العاده فنی و واقعاً چالش برانگیز برای تعیین است و در حال حاضر بی‌پاسخ است».

بدون “اثر انگشت” هوش مصنوعی
آقای سالی که خود را «حامی بزرگ مقررات» سیستم‌های هوش مصنوعی توصیف می‌کرد، قبلاً برای سازمان پیمان جامع منع آزمایش‌های هسته‌ای تحت دستور سازمان ملل در وین کار می‌کرد که بر انجام آزمایش‌های هسته‌ای نظارت می‌کرد.

اما او می‌گوید شناسایی سلاح‌های هدایت‌شونده با هوش مصنوعی چالشی کاملاً جدید ایجاد می‌کند که سلاح‌های هسته‌ای – که دارای امضاهای پزشکی قانونی هستند – آن را ندارند.

مدیرعامل گفت: «یک مشکل عملی از نظر نحوه نظارت بر هر نوع مقررات در سطح بین‌المللی وجود دارد. “این چیزی است که هیچ کس نمی خواهد به آن بپردازد. اما تا زمانی که به آن رسیدگی نشود… من فکر می کنم که این یک مانع بزرگ و بزرگ خواهد بود.”

حفاظت از آینده
نمایندگان کنفرانس UNIDIR بر نیاز به آینده نگری استراتژیک برای درک خطرات ناشی از فناوری های پیشرفته که اکنون متولد می شوند، اصرار داشتند.

آقای الیاس از شرکت اصرار داشت که برای موزیلا، که نسل جدید فن‌آوران را آموزش می‌دهد، توسعه‌دهندگان آینده “باید از آنچه با این فناوری قدرتمند انجام می‌دهند و چه چیزی می‌سازند آگاه باشند”.

دانشگاهیان مانند موزس ب. خانییل از دانشگاه استلنبوش در آفریقای جنوبی معتقدند که دانشگاه ها نیز “مسئولیت عالی” را برای حفظ ارزش های اخلاقی اصلی بر عهده دارند.

دکتر Khanyile، مدیر واحد تحقیقات هوش مصنوعی دفاعی در دانشگاه Stellenbosch، گفت که منافع ارتش – کاربران مورد نظر این فناوری ها – و دولت ها به عنوان تنظیم کننده باید “هماهنگ شوند”.

آنها باید فناوری هوش مصنوعی را ابزاری برای خیر بدانند و بنابراین باید به نیرویی برای خیر تبدیل شوند.»

کشورهای درگیر
دیپلمات هایی از چین، هلند، پاکستان، فرانسه، ایتالیا و کره جنوبی نیز در پاسخ به این سوال که چه اقدامی برای ایجاد اعتماد بین کشورها انجام خواهند داد.

شن جیان، سفیر فوق‌العاده و تام الاختیار (خلع سلاح) و معاون نماینده دائم جمهوری خلق چین گفت: «ما باید یک خط امنیت ملی را از نظر کنترل صادرات فناوری‌های پیشرفته تعریف کنیم».

مسیرهای تحقیق و توسعه هوش مصنوعی آینده باید شامل سایر زمینه های نوظهور مانند فیزیک و علوم اعصاب نیز باشد.

رابرت در دن بوش، سفیر خلع سلاح و نماینده دائم هلند در کنفرانس خلع سلاح، گفت: “هوش مصنوعی پیچیده است، اما دنیای واقعی حتی پیچیده تر است.” به همین دلیل، می‌توانم بگویم که نگاه کردن به هوش مصنوعی در همگرایی با سایر فناوری‌ها و به‌ویژه سایبری، کوانتومی و فضا نیز مهم است.»

بیانیه خبری سازمان ملل متحد. این مطالب از سازمان/نویسنده (نویسندگان) مبدأ ممکن است ماهیت لحظه به لحظه داشته باشد و برای وضوح، سبک و طولانی ویرایش شده باشد. Mirage.News مواضع یا طرف‌های نهادی را اتخاذ نمی‌کند و تمام دیدگاه‌ها، مواضع و نتیجه‌گیری‌های بیان شده در اینجا صرفاً متعلق به نویسنده یا نویسنده‌ها است. به‌طور کامل اینجا را ببینید.

منبع: www.miragenews.com

source

ecokhabari.com

توسط ecokhabari.com