آنچه امروزه هوش مصنوعی واقعاً می تواند انجام دهد
آنچه امروزه هوش مصنوعی واقعاً می تواند انجام دهد
Anonim

هشدار اسپویلر: هنوز زمان زیادی تا قیام ماشین ها باقی مانده است.

آنچه امروزه هوش مصنوعی واقعاً می تواند انجام دهد
آنچه امروزه هوش مصنوعی واقعاً می تواند انجام دهد

وقتی ایلان ماسک ربات انسان نما تسلا بات را معرفی می کند، به نظر می رسد که یک انقلاب علمی جدید در راه است. کمی بیشتر - و هوش مصنوعی (AI) از انسان پیشی خواهد گرفت و ماشین‌ها جایگزین ما در محل کار خواهند شد. با این حال، از پروفسور گری مارکوس و ارنست دیویس که هر دو از کارشناسان مشهور هوش مصنوعی هستند، خواسته می‌شود که برای چنین نتیجه‌گیری عجله نکنند.

در ریبوت هوش مصنوعی، محققان توضیح می‌دهند که چرا فناوری مدرن از ایده‌آل فاصله زیادی دارد. لایف هکر با مجوز انتشارات "آلپینا پرو" گزیده ای از فصل اول را منتشر می کند.

در این مرحله، یک شکاف بزرگ - یک شکاف واقعی - بین جاه طلبی ما و واقعیت هوش مصنوعی وجود دارد. این شکاف به دلیل حل نشدن سه مشکل خاص به وجود آمده است که باید صادقانه با هر یک برخورد کرد.

اولین مورد آن چیزی است که ما آن را ساده لوح می نامیم، که مبتنی بر این واقعیت است که ما انسان ها واقعاً یاد نگرفته ایم که بین انسان و ماشین تمایز قائل شویم و این باعث می شود که فریبمان را آسان کنیم. ما هوش را به کامپیوترها نسبت می‌دهیم زیرا خودمان در میان افرادی تکامل یافته‌ایم و زندگی کرده‌ایم که عمدتاً اعمال خود را بر اساس انتزاعاتی مانند ایده‌ها، باورها و خواسته‌ها بنا می‌کنند. رفتار ماشین‌ها اغلب از نظر ظاهری شبیه رفتار انسان‌ها است، بنابراین ما به سرعت ماشین‌ها را همان نوع مکانیسم‌های اساسی اختصاص می‌دهیم، حتی اگر ماشین‌ها آنها را نداشته باشند.

ما نمی توانیم از نظر شناختی به ماشین ها فکر نکنیم ("کامپیوتر من فکر می کند فایلم را حذف کرده ام")، مهم نیست قوانینی که ماشین ها واقعاً از آنها پیروی می کنند چقدر ساده است. اما نتیجه‌گیری‌هایی که در مورد انسان‌ها خود را توجیه می‌کنند، ممکن است در مورد برنامه‌های هوش مصنوعی کاملاً اشتباه باشند. در احترام به یک اصل اساسی روانشناسی اجتماعی، این را خطای اعتبار بنیادی می نامیم.

یکی از اولین موارد این خطا در اواسط دهه 1960 رخ داد، زمانی که یک ربات چت به نام الیزا برخی افراد را متقاعد کرد که او واقعاً چیزهایی را که به او می‌گویند درک می‌کند. در واقع، الیزا فقط کلمات کلیدی را انتخاب کرد، آخرین چیزی را که شخص به او گفت تکرار کرد و در یک موقعیت بن بست به ترفندهای مکالمه استانداردی مانند "از دوران کودکی خود بگویید". اگر از مادرتان نام می‌بردید، او از شما در مورد خانواده‌تان می‌پرسید، اگرچه نمی‌دانست واقعاً خانواده چیست یا چرا برای مردم مهم است. این فقط مجموعه ای از ترفندها بود، نه نمایش هوش واقعی.

علیرغم اینکه الیزا اصلاً مردم را درک نمی کرد، بسیاری از کاربران فریب دیالوگ های با او را خوردند. برخی ساعت ها را صرف تایپ عبارات روی صفحه کلید کردند، به این شکل با الیزا صحبت کردند، اما ترفندهای چت بات را اشتباه تعبیر کردند، گفتار طوطی را با نصیحت یا همدردی مفید و صمیمانه اشتباه گرفتند.

جوزف وایزنباوم خالق الیزا.

افرادی که به خوبی می دانستند دارند با ماشین صحبت می کنند، خیلی زود این واقعیت را فراموش کردند، همانطور که عاشقان تئاتر برای مدتی ناباوری خود را کنار می گذارند و فراموش می کنند که عملی که شاهد آن هستند حق ندارد واقعی خوانده شود.

گفت‌وگوهای الیزا اغلب برای مکالمه خصوصی با سیستم اجازه می‌خواستند و پس از گفتگو، علی‌رغم تمام توضیحات من، اصرار داشتند که دستگاه واقعاً آنها را درک می‌کند.

در موارد دیگر، خطا در ارزیابی صحت ممکن است به معنای واقعی کلمه کشنده باشد. در سال 2016، یکی از صاحبان یک ماشین تسلا خودکار به قدری بر ایمنی ظاهری حالت خلبان خودکار تکیه کرد که (طبق داستان ها) کاملاً خود را در تماشای فیلم های هری پاتر غرق کرد و ماشین را رها کرد تا همه کارها را به تنهایی انجام دهد.

همه چیز به خوبی پیش رفت - تا اینکه در یک نقطه بد شد. خودرو که صدها یا حتی هزاران مایل را بدون تصادف رانندگی کرده بود (به تمام معنا) با یک مانع غیرمنتظره برخورد کرد: یک کامیون سفید رنگ از بزرگراه عبور کرد و تسلا درست زیر تریلر هجوم آورد و صاحب خودرو را در دم کشته شد.. (به نظر می رسید که اتومبیل چندین بار به راننده هشدار داده بود که کنترل را به دست بگیرد، اما به نظر می رسید که راننده آنقدر آرام بود که نمی توانست سریع واکنش نشان دهد.)

اخلاقیات این داستان روشن است: این واقعیت که ممکن است یک دستگاه برای یک یا دو لحظه (و حتی شش ماه) "هوشمند" به نظر برسد، اصلاً به این معنی نیست که واقعاً چنین است یا می تواند با همه شرایطی که در آن وجود دارد کنار بیاید. یک فرد به اندازه کافی واکنش نشان می دهد.

مشکل دوم را توهم پیشرفت سریع می نامیم: اشتباه گرفتن پیشرفت در هوش مصنوعی، مرتبط با حل مسائل آسان، برای پیشرفت، مرتبط با حل مسائل واقعاً دشوار. مثلاً در مورد سیستم IBM Watson این اتفاق افتاد: پیشرفت آن در بازی Jeopardy! بسیار امیدوارکننده به نظر می رسید، اما در واقع معلوم شد که این سیستم بسیار دورتر از درک زبان انسان از آنچه توسعه دهندگان پیش بینی کرده بودند است.

این امکان وجود دارد که برنامه AlphaGo شرکت DeepMind نیز همین مسیر را طی کند. بازی go، مانند شطرنج، یک بازی اطلاعاتی ایده‌آل است که در آن هر دو بازیکن می‌توانند در هر زمان کل صفحه را ببینند و عواقب حرکات را با نیروی بی‌رحمانه محاسبه کنند.

در بیشتر موارد، در زندگی واقعی، هیچ کس چیزی را با اطمینان کامل نمی داند. داده های ما اغلب ناقص یا تحریف شده است.

حتی در ساده ترین موارد، عدم قطعیت زیادی وجود دارد. وقتی تصمیم می گیریم پیاده به دکتر برویم یا سوار مترو شویم (از آنجایی که روز ابری است)، نمی دانیم دقیقا چقدر طول می کشد تا قطار مترو منتظر بمانیم، آیا قطار در جاده گیر می کند یا خیر. مثل شاه ماهی در بشکه داخل کالسکه می نشینیم یا بیرون زیر باران خیس می شویم، جرأت نمی کنیم سوار مترو شویم، و واکنش دکتر به تاخیر ما چگونه خواهد بود.

ما همیشه با اطلاعاتی که داریم کار می کنیم. با میلیون‌ها بار بازی Go با خودش، سیستم DeepMind AlphaGo هرگز با عدم قطعیت برخورد نکرده است، به سادگی نمی‌داند چه کمبود اطلاعات یا ناقص بودن و ناهماهنگی آن، نه از پیچیدگی‌های تعامل انسانی.

پارامتر دیگری وجود دارد که باعث می‌شود بازی‌های ذهنی بسیار متفاوت از دنیای واقعی باشند و این باز هم به داده‌ها مربوط می‌شود. حتی بازی‌های پیچیده (اگر قوانین به اندازه کافی سخت‌گیرانه باشند) می‌توانند تقریباً به خوبی مدل‌سازی شوند، بنابراین سیستم‌های هوش مصنوعی که آنها را بازی می‌کنند می‌توانند به راحتی حجم عظیمی از داده‌های مورد نیاز برای آموزش را جمع‌آوری کنند. بنابراین، در مورد Go، یک ماشین می تواند یک بازی را با مردم به سادگی با بازی در برابر خودش شبیه سازی کند. حتی اگر سیستم به ترابایت داده نیاز داشته باشد، خود آن را ایجاد می کند.

بنابراین برنامه نویسان می توانند داده های شبیه سازی کاملاً تمیز را با هزینه کم یا بدون هزینه به دست آورند. برعکس، در دنیای واقعی، داده‌های کاملاً تمیز وجود ندارند، شبیه‌سازی آن غیرممکن است (از آنجایی که قوانین بازی دائماً در حال تغییر هستند) و جمع‌آوری بسیاری از گیگابایت داده‌های مرتبط به صورت آزمایشی دشوارتر است. و خطا

در واقعیت، ما فقط چند تلاش برای آزمایش استراتژی های مختلف داریم.

به عنوان مثال، ما نمی‌توانیم 10 میلیون بار مراجعه به پزشک را تکرار کنیم و به تدریج پارامترهای تصمیم‌گیری را قبل از هر ویزیت تنظیم کنیم تا رفتار خود را از نظر انتخاب حمل و نقل به طور چشمگیری بهبود دهیم.

اگر برنامه نویسان بخواهند رباتی را برای کمک به افراد مسن آموزش دهند (مثلاً برای کمک به خواباندن افراد بیمار)، هر ذره داده ارزش پول واقعی و زمان واقعی انسان را دارد. هیچ راهی برای جمع آوری تمام داده های مورد نیاز با استفاده از بازی های شبیه سازی وجود ندارد. حتی آدمک های تست تصادف نمی توانند جایگزین افراد واقعی شوند.

جمع آوری داده ها در مورد افراد مسن واقعی با ویژگی های مختلف حرکات سالمند، روی انواع تخت ها، انواع لباس خواب، انواع مختلف خانه ها ضروری است و در اینجا شما نمی توانید اشتباه کنید، زیرا انداختن یک فرد حتی در فاصله چند فاصله. سانتی متر از تخت فاجعه خواهد بود. در این مورد، پیشرفت خاصی (تا کنون ابتدایی ترین) در این زمینه با استفاده از روش های باریک هوش مصنوعی به دست آمده است. سیستم‌های رایانه‌ای توسعه یافته‌اند که تقریباً در سطح بهترین بازیکنان انسانی در بازی‌های ویدیویی Dota 2 و Starcraft 2 بازی می‌کنند، جایی که در هر زمان تنها بخشی از دنیای بازی به شرکت‌کنندگان نشان داده می‌شود و بنابراین، هر بازیکن با مشکل کمبود اطلاعات - که با دست سبک کلاوزویتز "مه ناشناخته" نامیده می شود. با این حال، سیستم‌های توسعه‌یافته همچنان با تمرکز بسیار محدود و در عملیات ناپایدار باقی می‌مانند. به عنوان مثال، برنامه AlphaStar که در Starcraft 2 بازی می‌کند، فقط یک مسابقه خاص را از بین شخصیت‌های مختلف یاد گرفته است و تقریباً هیچ یک از این پیشرفت‌ها مانند هر نژاد دیگری قابل بازی نیستند. و البته دلیلی وجود ندارد که باور کنیم روش‌های مورد استفاده در این برنامه‌ها برای انجام تعمیم‌های موفق در موقعیت‌های بسیار پیچیده‌تر زندگی واقعی مناسب هستند. زندگی های واقعی همانطور که IBM نه یک بار، بلکه دو بار کشف کرده است (اول در شطرنج، و سپس در خطر!)، موفقیت در مشکلات از یک دنیای بسته به هیچ وجه موفقیت در یک جهان باز را تضمین نمی کند.

دایره سوم شکاف توصیف شده تخمین بیش از حد قابلیت اطمینان است. بارها و بارها می‌بینیم که به محض اینکه افراد با کمک هوش مصنوعی راه‌حلی برای مشکلی پیدا می‌کنند که می‌تواند برای مدتی بدون نقص کار کند، به‌طور خودکار فرض می‌کنند که با تجدید نظر (و با مقدار کمی داده‌ها) همه چیز قابل اعتماد کار خواهد کرد. اما لزوماً اینطور نیست.

ما دوباره ماشین های بدون راننده می گیریم. ایجاد یک نسخه نمایشی از یک وسیله نقلیه خودمختار که به درستی در امتداد خط مشخص شده در یک جاده آرام حرکت کند، نسبتاً آسان است. با این حال، مردم توانسته اند این کار را برای بیش از یک قرن انجام دهند. با این حال، کار کردن این سیستم ها در شرایط سخت یا غیرمنتظره بسیار دشوارتر است.

همانطور که میسی کامینگز، مدیر آزمایشگاه انسان ها و خودمختاری در دانشگاه دوک (و خلبان سابق جنگنده نیروی دریایی ایالات متحده)، در ایمیلی به ما گفت، سوال این نیست که یک ماشین بدون راننده چند مایل می تواند بدون تصادف طی کند، بلکه در گستره آن است. که این خودروها قادر به تطبیق با شرایط متغیر هستند. به گفته او میسی کامینگز، در 22 سپتامبر 2018 به نویسندگان ایمیل بزنید. ، وسایل نقلیه نیمه خودران مدرن "معمولا فقط در محدوده بسیار محدودی از شرایط کار می کنند، که چیزی در مورد نحوه عملکرد آنها در شرایط کمتر از ایده آل نمی گوید."

به نظر رسیدن کاملاً قابل اعتماد در میلیون‌ها مایل آزمایشی در فونیکس، به معنای عملکرد خوب در طول باران‌های موسمی در بمبئی نیست.

این تفاوت اساسی بین نحوه رفتار وسایل نقلیه خودران در شرایط ایده آل (مانند روزهای آفتابی در جاده های چند لاین برون شهری) و آنچه ممکن است در شرایط شدید انجام دهند، می تواند به راحتی برای کل صنعت تبدیل به یک موضوع موفقیت و شکست شود.

با تأکید بسیار کمی بر رانندگی خودکار در شرایط شدید و اینکه روش‌شناسی فعلی در جهت اطمینان از اینکه خلبان خودکار در شرایطی که به‌تازگی به‌عنوان واقعی در نظر گرفته می‌شود به درستی کار می‌کند تکامل نیافته است، ممکن است به زودی مشخص شود که میلیاردها دلار صرف روش‌هایی برای ساخت خودروهای خودرانی شده است که به سادگی نمی‌توانند قابلیت اطمینان رانندگی مانند انسان را ارائه دهند.ممکن است برای رسیدن به سطح اطمینان فنی مورد نیاز، رویکردهایی ضروری باشد که اساساً با رویکردهای فعلی متفاوت باشد.

و اتومبیل ها تنها یک نمونه از بسیاری از موارد مشابه هستند. در تحقیقات مدرن در زمینه هوش مصنوعی، قابلیت اطمینان آن در سطح جهانی دست کم گرفته شده است. این تا حدی به این دلیل است که بیشتر پیشرفت‌های کنونی در این زمینه شامل مشکلاتی است که به شدت خطا را تحمل می‌کنند، مانند توصیه تبلیغات یا تبلیغ محصولات جدید.

در واقع، اگر پنج نوع محصول را به شما توصیه کنیم و شما فقط سه نوع از آنها را دوست داشته باشید، هیچ ضرری پیش نمی آید. اما در تعدادی از برنامه‌های کاربردی حیاتی هوش مصنوعی برای آینده، از جمله خودروهای بدون راننده، مراقبت از سالمندان و برنامه‌ریزی مراقبت‌های بهداشتی، قابلیت اطمینان انسان‌مانند بسیار مهم خواهد بود.

هیچ‌کس رباتی خانگی نمی‌خرد که بتواند با خیال راحت پدربزرگ سالخورده شما را تنها چهار بار از هر پنج بار به رختخواب ببرد.

حتی در کارهایی که هوش مصنوعی مدرن از نظر تئوری باید در بهترین نور ممکن ظاهر شود، شکست‌های جدی به طور منظم رخ می‌دهند که گاهی بسیار خنده‌دار به نظر می‌رسند. یک مثال معمولی: اصولاً رایانه ها قبلاً به خوبی یاد گرفته اند که چگونه آنچه را که در این یا آن تصویر وجود دارد (یا در حال وقوع است) تشخیص دهند.

گاهی اوقات این الگوریتم ها عالی عمل می کنند، اما اغلب خطاهای کاملاً باورنکردنی ایجاد می کنند. اگر تصویری را به یک سیستم خودکار نشان دهید که برای عکس‌های صحنه‌های روزمره زیرنویس ایجاد می‌کند، اغلب پاسخی دریافت می‌کنید که بسیار شبیه به آنچه که یک انسان می‌نویسد است. به عنوان مثال، برای صحنه زیر، که در آن گروهی از مردم مشغول بازی فریزبی هستند، سیستم تولید زیرنویس گوگل دقیقاً نام درستی را به آن می‌دهد.

شکل 1.1. گروهی از جوانان در حال بازی فریزبی (عنوان عکس قابل قبول، تولید خودکار توسط هوش مصنوعی)
شکل 1.1. گروهی از جوانان در حال بازی فریزبی (عنوان عکس قابل قبول، تولید خودکار توسط هوش مصنوعی)

اما پنج دقیقه بعد، می توانید به راحتی از همان سیستم یک پاسخ کاملاً پوچ دریافت کنید، به عنوان مثال، با این تابلوی جاده، که شخصی برچسب ها را روی آن چسبانده است: رایانه ای به نام سازندگان سیستم توضیح نداده است که چرا این خطا رخ داده است. ، اما چنین مواردی غیر معمول نیست. می‌توانیم فرض کنیم که سیستم در این مورد خاص، عکس را (شاید از نظر رنگ و بافت) شبیه به سایر تصاویر (که از آن‌ها آموخته است) طبقه‌بندی کرده است که با عنوان «یخچال پر از مواد غذایی و نوشیدنی‌های فراوان» برچسب‌گذاری شده است. طبیعتاً رایانه نمی فهمید (که شخص به راحتی می تواند درک کند) که چنین کتیبه ای فقط در مورد یک جعبه فلزی مستطیلی بزرگ با اشیاء مختلف (و حتی نه همه) داخل آن مناسب است. این صحنه "یخچال با مقدار زیادی غذا و نوشیدنی" است.

برنج. 1.2. یخچال پر از مواد غذایی و نوشیدنی (سرفصل کاملا غیرقابل قبول، ایجاد شده توسط همان سیستم فوق)
برنج. 1.2. یخچال پر از مواد غذایی و نوشیدنی (سرفصل کاملا غیرقابل قبول، ایجاد شده توسط همان سیستم فوق)

به همین ترتیب، اتومبیل‌های بدون راننده اغلب به درستی آنچه را که «می‌بینند» شناسایی می‌کنند، اما گاهی اوقات به نظر می‌رسد که آنها چیزهای بدیهی را نادیده می‌گیرند، مانند مورد تسلا، که مرتباً با خودروهای آتش‌نشانی پارک شده یا آمبولانس‌های خودکار تصادف می‌کند. نقاط کوری مانند این اگر در سیستم هایی قرار گیرند که شبکه های برق را کنترل می کنند یا مسئول نظارت بر سلامت عمومی هستند، می توانند خطرناک تر باشند.

برای پر کردن شکاف بین جاه‌طلبی و واقعیت‌های هوش مصنوعی، به سه چیز نیاز داریم: آگاهی روشن از ارزش‌های در خطر در این بازی، درک روشنی از اینکه چرا سیستم‌های هوش مصنوعی مدرن عملکردهای خود را به اندازه کافی قابل اعتماد انجام نمی‌دهند، و در نهایت، یک تفکر ماشینی استراتژی توسعه جدید.

از آنجایی که خطرات هوش مصنوعی از نظر شغل، ایمنی و ساختار جامعه واقعاً زیاد است، نیاز فوری برای همه ما - متخصصان هوش مصنوعی، مشاغل مرتبط، شهروندان عادی و سیاستمداران - وجود دارد که وضعیت واقعی امور را درک کنیم. در این زمینه به منظور یادگیری ارزیابی انتقادی سطح و ماهیت توسعه هوش مصنوعی امروزی.

همانطور که برای شهروندان علاقه مند به اخبار و آمار مهم است که درک کنند چقدر ساده است که مردم را با کلمات و اعداد گمراه کنند، در اینجا نیز جنبه مهمی از درک وجود دارد تا بتوانیم بفهمیم هوش مصنوعی کجاست. فقط تبلیغات، اما کجا واقعی است آنچه او اکنون قادر به انجام آن است و آنچه را که نمی داند چگونه و شاید نتواند یاد بگیرد.

مهم‌ترین چیز این است که بدانیم هوش مصنوعی جادو نیست، بلکه مجموعه‌ای از تکنیک‌ها و الگوریتم‌هاست که هر کدام نقاط قوت و ضعف خاص خود را دارند، برای برخی کارها مناسب هستند و برای برخی دیگر مناسب نیستند. یکی از دلایل اصلی ما برای نوشتن این کتاب این است که بسیاری از مطالبی که در مورد هوش مصنوعی می خوانیم به نظر ما یک فانتزی مطلق است که از یک اعتماد بی اساس به قدرت تقریباً جادویی هوش مصنوعی سرچشمه می گیرد.

در ضمن، این داستان ربطی به قابلیت های تکنولوژیک مدرن ندارد. متأسفانه، بحث هوش مصنوعی در بین عموم مردم به شدت تحت تأثیر حدس و گمان و اغراق بوده و هست: بیشتر مردم نمی دانند که ایجاد هوش مصنوعی جهانی چقدر دشوار است.

اجازه دهید بحث بیشتر را روشن کنیم. اگرچه شفاف سازی واقعیت های مرتبط با هوش مصنوعی مستلزم انتقاد جدی از سوی ما است، اما ما خودمان به هیچ وجه مخالف هوش مصنوعی نیستیم، ما واقعاً این سمت پیشرفت فناوری را دوست داریم. ما بخش قابل توجهی از زندگی خود را به عنوان حرفه ای در این زمینه گذرانده ایم و می خواهیم هر چه سریعتر آن را توسعه دهیم.

فیلسوف آمریکایی هوبرت دریفوس زمانی کتابی نوشت که به نظر او هوش مصنوعی هرگز نمی تواند به چه ارتفاعاتی برسد. این چیزی نیست که این کتاب در مورد آن است. این بخش تا حدی بر روی آنچه که هوش مصنوعی در حال حاضر نمی تواند انجام دهد و چرا درک آن مهم است تمرکز می کند، اما بخش قابل توجهی از آن در مورد آنچه که می توان برای بهبود تفکر رایانه ای انجام داد و گسترش آن به مناطقی که اکنون در انجام آن ابتدا مشکل دارد، صحبت می کند.

ما نمی خواهیم هوش مصنوعی ناپدید شود. ما می خواهیم آن را به طور اساسی بهبود بخشد تا بتوانیم واقعاً روی آن حساب کنیم و با کمک آن بسیاری از مشکلات بشریت را حل کنیم. ما انتقادات زیادی درباره وضعیت فعلی هوش مصنوعی داریم، اما انتقاد ما جلوه ای از عشق به علمی است که انجام می دهیم، نه فراخوانی برای دست کشیدن و رها کردن همه چیز.

به طور خلاصه، ما معتقدیم که هوش مصنوعی واقعاً می تواند جهان ما را به طور جدی متحول کند. اما ما همچنین معتقدیم که بسیاری از مفروضات اساسی در مورد هوش مصنوعی قبل از اینکه بتوانیم در مورد پیشرفت واقعی صحبت کنیم، باید تغییر کنند. "بازنشانی" هوش مصنوعی پیشنهادی ما به هیچ وجه دلیلی برای پایان دادن به تحقیق نیست (اگرچه ممکن است برخی کتاب ما را دقیقاً با این روحیه درک کنند)، بلکه یک تشخیص است: اکنون کجا گیر کرده ایم و چگونه از آن خارج شویم. وضعیت امروز

ما بر این باوریم که بهترین راه برای حرکت رو به جلو ممکن است این باشد که به درون نگاه کنیم و با ساختار ذهن خود روبرو شویم.

ماشین های واقعاً هوشمند لازم نیست کپی دقیق انسان ها باشند، اما هرکسی که صادقانه به هوش مصنوعی نگاه کند می بیند که هنوز چیزهای زیادی برای یادگیری از انسان ها وجود دارد، به ویژه از کودکان خردسال، که از بسیاری جهات بسیار برتر از ماشین ها هستند. توانایی آنها در جذب و درک مفاهیم جدید.

دانشمندان علوم پزشکی اغلب کامپیوترها را به عنوان سیستم‌های «فوق بشری» (به هر طریقی) توصیف می‌کنند، اما مغز انسان هنوز از همتایان سیلیکونی خود در حداقل پنج جنبه بسیار برتر است: ما می‌توانیم زبان را درک کنیم، می‌توانیم جهان را درک کنیم، می‌توانیم انعطاف‌پذیر باشیم. با شرایط جدید سازگار شویم، می توانیم به سرعت چیزهای جدید یاد بگیریم (حتی بدون مقادیر زیاد داده) و در مواجهه با اطلاعات ناقص و حتی متناقض استدلال کنیم. در همه این جبهه ها، سیستم های هوش مصنوعی مدرن به طور ناامیدکننده ای از انسان ها عقب هستند.

راه اندازی مجدد هوش مصنوعی
راه اندازی مجدد هوش مصنوعی

هوش مصنوعی: راه‌اندازی مجدد، افرادی را که می‌خواهند فناوری‌های مدرن را درک کنند و بفهمند چگونه و چه زمانی نسل جدیدی از هوش مصنوعی می‌تواند زندگی ما را بهتر کند، علاقه‌مند خواهد شد.

توصیه شده: