هواپیماهای بدون سرنشین و خودروهای خودران به عنوان سلاح: چرا باید از هکرها بترسیم
هواپیماهای بدون سرنشین و خودروهای خودران به عنوان سلاح: چرا باید از هکرها بترسیم
Anonim

اگر هوش مصنوعی به دست اشتباه بیفتد، جهان متمدن می تواند در هرج و مرج فرو رود.

هواپیماهای بدون سرنشین و خودروهای خودران به عنوان سلاح: چرا باید از هکرها بترسیم
هواپیماهای بدون سرنشین و خودروهای خودران به عنوان سلاح: چرا باید از هکرها بترسیم

هیچ کس انکار نمی کند که هوش مصنوعی می تواند زندگی ما را به سطح بالاتری برساند. هوش مصنوعی قادر به حل بسیاری از مشکلاتی است که از توان انسان خارج است.

با این حال، بسیاری بر این باورند که ابراطلاعات قطعاً می خواهند مانند SkyNet ما را از بین ببرند، یا شروع به انجام آزمایشاتی بر روی افراد می کنند، مانند GLADoS از بازی Portal. طنز این است که فقط انسان ها می توانند هوش مصنوعی را خوب یا بد کنند.

چرا هوش مصنوعی می تواند یک تهدید جدی باشد؟
چرا هوش مصنوعی می تواند یک تهدید جدی باشد؟

محققان دانشگاه ییل، آکسفورد، کمبریج و OpenAI گزارشی در مورد سوء استفاده از هوش مصنوعی منتشر کرده اند. می گوید خطر واقعی از هکرها می آید. آنها با کمک کدهای مخرب می توانند عملکرد سیستم های خودکار تحت کنترل هوش مصنوعی را مختل کنند.

محققان نگرانند که فناوری‌های با نیت خوب آسیب ببینند. به عنوان مثال، تجهیزات نظارتی نه تنها برای دستگیری تروریست ها، بلکه برای جاسوسی از شهروندان عادی نیز قابل استفاده است. محققان همچنین نگران پهپادهای تجاری هستند که غذا را تحویل می دهند. رهگیری آنها و کاشت مواد منفجره آسان است.

یکی دیگر از سناریوهای استفاده مخرب از هوش مصنوعی، خودروهای خودران است. کافی است چند خط کد را تغییر دهید و ماشین ها شروع به نادیده گرفتن قوانین ایمنی خواهند کرد.

چرا هوش مصنوعی می تواند یک تهدید جدی باشد؟
چرا هوش مصنوعی می تواند یک تهدید جدی باشد؟

دانشمندان معتقدند این تهدید می تواند دیجیتال، فیزیکی و سیاسی باشد.

  • هوش مصنوعی در حال حاضر برای بررسی آسیب پذیری های کدهای نرم افزاری مختلف استفاده می شود. در آینده، هکرها می توانند رباتی ایجاد کنند که از هر گونه حفاظتی عبور کند.
  • با کمک هوش مصنوعی، فرد می تواند بسیاری از فرآیندها را خودکار کند: به عنوان مثال، گروهی از پهپادها یا گروهی از خودروها را کنترل کند.
  • با کمک فناوری هایی مانند DeepFake، می توان با انتشار اطلاعات نادرست درباره رهبران جهان با استفاده از ربات ها در اینترنت، بر زندگی سیاسی دولت تأثیر گذاشت.

این نمونه های ترسناک تاکنون تنها به عنوان یک فرضیه وجود دارد. نویسندگان این مطالعه رد کامل فناوری را پیشنهاد نمی کنند. در عوض، آنها بر این باورند که دولت های ملی و شرکت های بزرگ باید از امنیت مراقبت کنند، در حالی که صنعت هوش مصنوعی هنوز در مراحل ابتدایی خود است.

سیاستگذاران باید فناوری را مطالعه کنند و با متخصصان در این زمینه کار کنند تا به طور مؤثر ایجاد و استفاده از هوش مصنوعی را تنظیم کنند.

توسعه دهندگان به نوبه خود باید خطر ناشی از فناوری پیشرفته را ارزیابی کنند، بدترین عواقب را پیش بینی کنند و به رهبران جهان در مورد آنها هشدار دهند. این گزارش از توسعه‌دهندگان هوش مصنوعی می‌خواهد تا با کارشناسان امنیتی در سایر زمینه‌ها همکاری کنند و ببینند آیا اصولی که امنیت این فناوری‌ها را تضمین می‌کند، می‌تواند برای محافظت از هوش مصنوعی استفاده شود یا خیر.

گزارش کامل این مشکل را با جزئیات بیشتری شرح می دهد، اما نکته اصلی این است که هوش مصنوعی ابزار قدرتمندی است. همه طرف های ذینفع باید فناوری جدید را مطالعه کنند و مطمئن شوند که از آن برای مقاصد مجرمانه استفاده نمی شود.

توصیه شده: