جهت پرس گزارش میدهد
چهار راه که هوش مصنوعی میتواند به فجایع جهانی تبدیل شود
کارشناسان مرکز ایمنی هوش مصنوعی در مقالهای شرح دادهاند که دقیقاً چگونه هوش مصنوعی می تواند باعث هرج و مرج در جهان شود و چگونه می توان از چنین بلایایی جلوگیری کرد.
محققان مرکز ایمنی هوش مصنوعی (CAIS) در مقالهای با عنوان «مروری بر خطرات فاجعهآمیز هوش مصنوعی» نوشتهاند : دنیایی که ما میشناسیم عادی نیست! ما مسلما می دانیم که می توانیم بی درنگ با مردم هزاران مایل دورتر صحبت کنیم، در کمتر از یک روز به آن سوی جهان پرواز کنیم و با وسایلی که در جیب خود حمل می کنیم به کوه های وسیعی از دانش انباشته شده دسترسی پیدا کنیم. این واقعیت قرنها پیش برای مردم «غیرقابل تصور» بود و حتی چند دهه پیش هم دور از ذهن بود. محققان بر این باوراند که الگویی در تاریخ از “توسعه شتابان” پدیدار شده است. آنها میگویند : از زمان ظهور انسانهای خردمند روی زمین و انقلاب کشاورزی صدها هزار سال گذشت. پس از آن، هزاران سال قبل از انقلاب صنعتی گذشت. اکنون، تنها چند قرن بعد، انقلاب هوش مصنوعی (AI) در حال آغاز است. سیر تاریخ ثابت نیست، بلکه به سرعت در حال شتاب است.
CAIS یک سازمان غیرانتفاعی فناوری است که با انجام تحقیقات ایمنی، ایجاد زمینه محققان ایمنی هوش مصنوعی و حمایت از استانداردهای ایمنی، برای کاهش “خطرات در مقیاس اجتماعی مرتبط با هوش مصنوعی” کار می کند، در حالی که اذعان می کند که هوش مصنوعی این قدرت را دارد که برای جهان مفید باشد. دن هندریکس، یکی از محققان CAIS میگویند خطرات فاجعهبار هوش مصنوعی را میتوان به چهار دسته تقسیم کرد : استفاده مخرب، مسابقه هوش مصنوعی با خود، ریسکهای سازمانی و هوش مصنوعی سرکش. هندریکس بر این باور است همانند سایر فناوریهای قدرتمند، باید با هوش مصنوعی در جهت مدیریت ریسک ها و استفاده از پتانسیل آن برای بهبود جامعه رفتار شود.
استفاده مخرب از هوش مصنوعی
مطالعه کارشناسان CAIS استفاده بدخواهانه از هوش مصنوعی را زمانی تعریف میکند که یک بازیگر بد از این فناوری برای ایجاد آسیب گسترده مانند بیوتروریسم، اطلاعات نادرست و تبلیغات و مواردی از این دست استفاده کند. محققان به حادثه ای در ژاپن در سال 1995 اشاره میکنند که فرقهای با نام “اوم شینریکو” گازی بی بو و بی رنگ را در واگن های متروی توکیو پخش کرد. این گاز در نهایت 13 نفر را کشت و 5800 نفر دیگر را مجروح کرد. تقریباً در 30 سال آینده، هوش مصنوعی می تواند به طور بالقوه برای ایجاد یک سلاح زیستی مورد استفاده قرار گیرد که اگر از آن استفاده مخرب شود، می تواند اثرات جبران ناپذیری مانند اقدامات فرقه اوم شینریکو بر بشریت داشته باشد. محققان CAIS میگویند فرض کنید دانشمندان سیستمی تحت عنوان «سیستم هوش مصنوعی با قابلیتهای تحقیقات بیولوژیکی» را را ایجاد کنند که هدف آن نجات جان انسانها است. حالا تصور کنید که این سیستم توسط افرادی برای ایجاد یک سلاح زیستی تغییر کاربری داده شود. نتیجه آن قطعا فاجعه انسانی به بار میآورد!
محققان میگویند برای کاهش خطراتی از این دست، ما باید با محدود کردن دسترسی به خطرناکترین مدلهای هوش مصنوعی و مسئولیت قانونی توسعهدهندگان هوش مصنوعی در قبال خسارات ناشی از سیستمهای هوش مصنوعی خود، اقداماتی را انجام داده و قوانینی را وضع کنیم.
مسابقه هوش مصنوعی با خود
محققان مسابقه هوش مصنوعی را به عنوان رقابتی تعریف می کنند که به طور بالقوه دولت ها و شرکت ها را به “توسعه هوش مصنوعی و واگذاری کنترل به سیستم های هوش مصنوعی وادار میکند” و این مسابقه را با جنگ سرد مقایسه می کنند؛ همانند زمانی که ایالات متحده و اتحاد جماهیر شوروی به سرعت برای ساخت تسلیحات هسته ای اقدام کردند. پتانسیل عظیم هوش مصنوعی فشارهای رقابتی را در بین بازیگران جهانی که برای قدرت و نفوذ تلاش می کنند ایجاد کرده است. این مسابقه هوش مصنوعی توسط کشورها و شرکت هایی هدایت می شود که احساس می کنند باید به سرعت هوش مصنوعی را برای حفظ موقعیت و بقای خود بسازند. با اولویتبندی ریسکهای جهانی، این عمل این احتمال را افزایش میدهد که توسعه هوش مصنوعی نتایج خطرناکی ایجاد کند.
به عنوان مثال، سلاح های خود مختاری بر پایه هوش مصنوعی میشود ساخت که قادراند هدف را بدون دخالت انسان بکشند و در عین حال دقت و زمان تصمیم گیری را ساده تر کنند. به گفته محققان، سلاحهای هوش مصنوعی میتوانند برتر از انسانها باشند و ارتش ها میتواند موقعیت مرگ یا زندگیشان را به سیستمهای هوش مصنوعی واگذار کند که همین امر میتواند احتمال جنگ را تشدید کند. محققان میگویند اگرچه رباتهایی که قابلیت راه رفتن و تیراندازی دارند هنوز جایگزین سربازان در میدان نبرد نشدهاند، اما فناوریها به گونهای همگرا هستند که ممکن است در آینده نزدیک این امکان را فراهم کند. آنها افزودند فرستادن نیروها به نبرد یک تصمیم جدی است که رهبران آن را ساده نمی گیرند اما سلاح های خودمختار به یک کشور متجاوز اجازه می دهد بدون به خطر انداختن جان سربازان خود حملاتی را انجام دهد. رهبران دیگر نیازی به قبول مسئولیت سربازانی که ممکن است چنازهشان به کشور برگردد را بر عهده نمیگیرند و همین امر ممکن است خبر از افزایش احتمال جنگ در آینده نه چندان دور را میدهد.
هوش مصنوعی همچنین میتواند دروازهها را برای حملات سایبری دقیقتر و سریعتر باز کند که میتواند زیرساختها را تخریب کند یا حتی جرقه جنگ بین کشورها را برانگیزد. محققان برای کمک به جلوگیری از چنین نتایجی پیشنهاد میکند برای کاهش خطرات ناشی از مسابقه هوش مصنوعی، با اجرای مقررات ایمنی، هماهنگی بینالمللی و کنترل عمومی هوش مصنوعیهای همهمنظوره باید صورت بگیرد.
ریسک های سازمانی
محققان این مقاله میگویند آزمایشگاهها و تیمهای تحقیقاتی که سیستمهای هوش مصنوعی را میسازند ممکن است دچار حوادث فاجعهبار شوند، بهویژه اگر فرهنگ ایمنی قوی نداشته باشند. محققان میگویند هوش مصنوعی ممکن است به طور تصادفی به عموم درز کند یا توسط عوامل مخرب دزدیده شود. سازمان ها ممکن است در تحقیقات خود بر روی ایمنی سرمایه گذاری نکنند یا نگرانی های خود را در مورد خطرات هوش مصنوعی سرکوب کنند. آنها اقداماتی که ممکن سازمانهایی که در حوزه هوش مصنوعی فعالیت میکنند انجام دهند را را با فجایع در طول تاریخ مانند چرنوبیل، جزیره تری مایل و حادثه مرگبار شاتل فضایی چلنجر مقایسه کردهاند.
محققان نوشتند در پیشرفت و توسعه سیستم های پیشرفته هوش مصنوعی بسیار مهم است که به یاد داشته باشیم که این سیستم ها از حوادث فاجعه آمیز مصون نیستند. محققان استدلال میکنند که حتی در غیاب افرادی که قصد استفاده غیرصلح آمیز دارند یا در فشار رقابتی، هوش مصنوعی تنها به دلیل خطای انسانی میتواند اثرات فاجعهباری بر بشریت داشته باشد. به عنوان مثال، در مورد چلنجر یا چرنوبیل، از قبل دانش تثبیت شده ای در مورد عواقب موشک و راکتورهای هسته ای وجود داشت اما هوش مصنوعی در مقایسه با آن بسیار کمتر شناخته شده است.
هوش مصنوعی سرکش
یکی از رایجترین نگرانیهای هوش مصنوعی از زمان گسترش فناوری در سالهای اخیر این است که انسانها میتوانند کنترل خود را از دست بدهند و رایانهها بر هوش انسانی غلبه کنند. اگر یک سیستم هوش مصنوعی هوشمندتر از ما باشد و اگر نتوانیم آن را به سمتی سودمند هدایت کنیم، این امر منجر به از دست دادن کنترلی می شود که می تواند عواقب شدیدی داشته باشد. محققان پیشنهاد میکنند که شرکتهای سیستمهای هوش مصنوعی باید از اهدافی مانند درآمد هرچه بیشتر پول و یا کسب معروفیت دوری کنند. این خطرات جای نگرانی جدی دارند. در حال حاضر، تعداد بسیار کمی از افراد روی کاهش خطر هوش مصنوعی کار می کنند. ما هنوز نمی دانیم چگونه سیستم های هوش مصنوعی بسیار پیشرفته را کنترل کنیم و روش های کنترل موجود در حال حاضر ناکافی هستند. همانطور که قابلیت های هوش مصنوعی به رشد بی سابقه ای ادامه می دهند.
محققان در نتیجه گیری خود نوشتند، همانطور که در این گزارش به روش ها و عمل های زیادی برای کاهش قابل ملاحظه خطرات هوش مصنوعی اشاره شده، آنها می توانند تقریباً به زودی از هوش انسانی در همه زمینه ها پیشی بگیرند و نیاز مبرمی برای مدیریت خطرات بالقوه ایجاد کنند.
نظرات
لطفا نظرات خود را با حروف فارسی تایپ کنید.
از ارسال نظراتی که حاوی مطالب کذب، توهین یا بیاحترامی به اشخاص، قومیتها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزههای دین مبین اسلام باشد خودداری کنید.
لطفا از نوشتن نظرات خود به صورت حروف لاتین (فینگیلیش) خودداری نماييد.
نظرات پس از تایید مدیر بخش مربوطه منتشر میشود.