جهت پرس گزارش می‌دهد

چهار راه که هوش مصنوعی می‌تواند به فجایع جهانی تبدیل شود

کارشناسان مرکز ایمنی هوش مصنوعی در مقاله‌ای شرح داده‌اند که دقیقاً چگونه هوش مصنوعی می تواند باعث هرج و مرج در جهان شود و چگونه می توان از چنین بلایایی جلوگیری کرد.

چهار راه که هوش مصنوعی می‌تواند به فجایع جهانی تبدیل شود
3822

محققان مرکز ایمنی هوش مصنوعی (CAIS) در مقاله‌ای با عنوان «مروری بر خطرات فاجعه‌آمیز هوش مصنوعی» نوشته‌اند : دنیایی که ما می‌شناسیم عادی نیست! ما مسلما می دانیم که می توانیم بی درنگ با مردم هزاران مایل دورتر صحبت کنیم، در کمتر از یک روز به آن سوی جهان پرواز کنیم و با وسایلی که در جیب خود حمل می کنیم به کوه های وسیعی از دانش انباشته شده دسترسی پیدا کنیم. این واقعیت قرن‌ها پیش برای مردم «غیرقابل تصور» بود و حتی چند دهه پیش هم دور از ذهن بود. محققان بر این باوراند که الگویی در تاریخ از “توسعه شتابان” پدیدار شده است. آنها می‌گویند : از زمان ظهور انسان‌های خردمند روی زمین و انقلاب کشاورزی صدها هزار سال گذشت. پس از آن، هزاران سال قبل از انقلاب صنعتی گذشت. اکنون، تنها چند قرن بعد، انقلاب هوش مصنوعی (AI) در حال آغاز است. سیر تاریخ ثابت نیست، بلکه به سرعت در حال شتاب است.

CAIS یک سازمان غیرانتفاعی فناوری است که با انجام تحقیقات ایمنی، ایجاد زمینه محققان ایمنی هوش مصنوعی و حمایت از استانداردهای ایمنی، برای کاهش “خطرات در مقیاس اجتماعی مرتبط با هوش مصنوعی” کار می کند، در حالی که اذعان می کند که هوش مصنوعی این قدرت را دارد که برای جهان مفید باشد. دن هندریکس، یکی از محققان CAIS می‌گویند خطرات فاجعه‌بار هوش مصنوعی را می‌توان به چهار دسته تقسیم کرد : استفاده مخرب، مسابقه هوش مصنوعی با خود، ریسک‌های سازمانی و هوش مصنوعی سرکش. هندریکس بر این باور است همانند سایر فناوری‌های قدرتمند، باید با هوش مصنوعی در جهت مدیریت ریسک ها و استفاده از پتانسیل آن برای بهبود جامعه رفتار شود.

استفاده مخرب از هوش مصنوعی

مطالعه کارشناسان CAIS استفاده بدخواهانه از هوش مصنوعی را زمانی تعریف می‌کند که یک بازیگر بد از این فناوری برای ایجاد آسیب گسترده مانند بیوتروریسم، اطلاعات نادرست و تبلیغات و مواردی از این دست استفاده کند. محققان به حادثه ای در ژاپن در سال 1995 اشاره می‌کنند که فرقه‌ای با نام “اوم شینریکو” گازی بی بو و بی رنگ را در واگن های متروی توکیو پخش کرد. این گاز در نهایت 13 نفر را کشت و 5800 نفر دیگر را مجروح کرد. تقریباً در 30 سال آینده، هوش مصنوعی می تواند به طور بالقوه برای ایجاد یک سلاح زیستی مورد استفاده قرار گیرد که اگر از آن استفاده مخرب شود، می تواند اثرات جبران ناپذیری مانند اقدامات فرقه اوم شینریکو بر بشریت داشته باشد. محققان CAIS می‌گویند فرض کنید دانشمندان سیستمی تحت عنوان «سیستم هوش مصنوعی با قابلیت‌های تحقیقات بیولوژیکی» را را ایجاد کنند که هدف آن نجات جان انسان‌ها است. حالا تصور کنید که این سیستم توسط افرادی برای ایجاد یک سلاح زیستی تغییر کاربری داده شود. نتیجه آن قطعا فاجعه انسانی به بار می‌آورد!

محققان می‌گویند برای کاهش خطراتی از این دست، ما باید با محدود کردن دسترسی به خطرناک‌ترین مدل‌های هوش مصنوعی و مسئولیت قانونی توسعه‌دهندگان هوش مصنوعی در قبال خسارات ناشی از سیستم‌های هوش مصنوعی خود، اقداماتی را انجام داده و قوانینی را وضع کنیم.

مسابقه هوش مصنوعی با خود

محققان مسابقه هوش مصنوعی را به عنوان رقابتی تعریف می کنند که به طور بالقوه دولت ها و شرکت ها را به “توسعه هوش مصنوعی و واگذاری کنترل به سیستم های هوش مصنوعی وادار می‌کند” و این مسابقه را با جنگ سرد مقایسه می کنند؛ همانند زمانی که ایالات متحده و اتحاد جماهیر شوروی به سرعت برای ساخت تسلیحات هسته ای اقدام کردند. پتانسیل عظیم هوش مصنوعی فشارهای رقابتی را در بین بازیگران جهانی که برای قدرت و نفوذ تلاش می کنند ایجاد کرده است. این مسابقه هوش مصنوعی توسط کشورها و شرکت هایی هدایت می شود که احساس می کنند باید به سرعت هوش مصنوعی را برای حفظ موقعیت و بقای خود بسازند. با اولویت‌بندی ریسک‌های جهانی، این عمل این احتمال را افزایش می‌دهد که توسعه هوش مصنوعی نتایج خطرناکی ایجاد کند.

به عنوان مثال، سلاح های خود مختاری بر پایه هوش مصنوعی می‌شود ساخت که قادراند هدف را بدون دخالت انسان بکشند و در عین حال دقت و زمان تصمیم گیری را ساده تر کنند. به گفته محققان، سلاح‌های هوش مصنوعی می‌توانند برتر از انسان‌ها باشند و ارتش ها می‌تواند موقعیت مرگ یا زندگی‌شان را به سیستم‌های هوش مصنوعی واگذار کند که همین امر می‌تواند احتمال جنگ را تشدید کند. محققان می‌گویند اگرچه ربات‌هایی که قابلیت راه رفتن و تیراندازی دارند هنوز جایگزین سربازان در میدان نبرد نشده‌اند، اما فناوری‌ها به گونه‌ای همگرا هستند که ممکن است در آینده نزدیک این امکان را فراهم کند. آنها افزودند فرستادن نیروها به نبرد یک تصمیم جدی است که رهبران آن را ساده نمی گیرند اما سلاح های خودمختار به یک کشور متجاوز اجازه می دهد بدون به خطر انداختن جان سربازان خود حملاتی را انجام دهد. رهبران دیگر نیازی به قبول مسئولیت سربازانی که ممکن است چنازه‌شان به کشور برگردد را بر عهده نمی‌گیرند و همین امر ممکن است خبر از افزایش احتمال جنگ در آینده نه چندان دور را می‌دهد.

هوش مصنوعی همچنین می‌تواند دروازه‌ها را برای حملات سایبری دقیق‌تر و سریع‌تر باز کند که می‌تواند زیرساخت‌ها را تخریب کند یا حتی جرقه جنگ بین کشورها را برانگیزد. محققان برای کمک به جلوگیری از چنین نتایجی پیشنهاد می‌کند برای کاهش خطرات ناشی از مسابقه هوش مصنوعی، با اجرای مقررات ایمنی، هماهنگی بین‌المللی و کنترل عمومی هوش مصنوعی‌های همه‌منظوره باید صورت بگیرد.

ریسک های سازمانی

محققان این مقاله می‌گویند آزمایشگاه‌ها و تیم‌های تحقیقاتی که سیستم‌های هوش مصنوعی را می‌سازند ممکن است دچار حوادث فاجعه‌بار شوند، به‌ویژه اگر فرهنگ ایمنی قوی نداشته باشند. محققان می‌گویند هوش مصنوعی ممکن است به طور تصادفی به عموم درز کند یا توسط عوامل مخرب دزدیده شود. سازمان ها ممکن است در تحقیقات خود بر روی ایمنی سرمایه گذاری نکنند یا نگرانی های خود را در مورد خطرات هوش مصنوعی سرکوب کنند. آنها اقداماتی که ممکن سازمان‌هایی که در حوزه هوش مصنوعی فعالیت می‌کنند انجام دهند را را با فجایع در طول تاریخ مانند چرنوبیل، جزیره تری مایل و حادثه مرگبار شاتل فضایی چلنجر مقایسه کرده‌اند.

محققان نوشتند در پیشرفت و توسعه سیستم های پیشرفته هوش مصنوعی بسیار مهم است که به یاد داشته باشیم که این سیستم ها از حوادث فاجعه آمیز مصون نیستند. محققان استدلال می‌کنند که حتی در غیاب افرادی که قصد استفاده غیرصلح آمیز دارند یا در فشار رقابتی، هوش مصنوعی تنها به دلیل خطای انسانی می‌تواند اثرات فاجعه‌باری بر بشریت داشته باشد. به عنوان مثال، در مورد چلنجر یا چرنوبیل، از قبل دانش تثبیت شده ای در مورد عواقب موشک و راکتورهای هسته ای وجود داشت اما هوش مصنوعی در مقایسه با آن بسیار کمتر شناخته شده است.

هوش مصنوعی سرکش

یکی از رایج‌ترین نگرانی‌های هوش مصنوعی از زمان گسترش فناوری در سال‌های اخیر این است که انسان‌ها می‌توانند کنترل خود را از دست بدهند و رایانه‌ها بر هوش انسانی غلبه کنند. اگر یک سیستم هوش مصنوعی هوشمندتر از ما باشد و اگر نتوانیم آن را به سمتی سودمند هدایت کنیم، این امر منجر به از دست دادن کنترلی می شود که می تواند عواقب شدیدی داشته باشد. محققان پیشنهاد می‌کنند که شرکت‌های سیستم‌های هوش مصنوعی باید از اهدافی مانند درآمد هرچه بیشتر پول و یا کسب معروفیت دوری کنند. این خطرات جای نگرانی جدی دارند. در حال حاضر، تعداد بسیار کمی از افراد روی کاهش خطر هوش مصنوعی کار می کنند. ما هنوز نمی دانیم چگونه سیستم های هوش مصنوعی بسیار پیشرفته را کنترل کنیم و روش های کنترل موجود در حال حاضر ناکافی هستند. همانطور که قابلیت های هوش مصنوعی به رشد بی سابقه ای ادامه می دهند.

محققان در نتیجه گیری خود نوشتند، همانطور که در این گزارش به روش ها و عمل های زیادی برای کاهش قابل ملاحظه خطرات هوش مصنوعی اشاره شده، آنها می توانند تقریباً به زودی از هوش انسانی در همه زمینه ها پیشی بگیرند و نیاز مبرمی برای مدیریت خطرات بالقوه ایجاد کنند.