2024 نویسنده: Malcolm Clapton | [email protected]. آخرین اصلاح شده: 2023-12-17 03:54
هشدار اسپویلر: هنوز زمان زیادی تا قیام ماشین ها باقی مانده است.
وقتی ایلان ماسک ربات انسان نما تسلا بات را معرفی می کند، به نظر می رسد که یک انقلاب علمی جدید در راه است. کمی بیشتر - و هوش مصنوعی (AI) از انسان پیشی خواهد گرفت و ماشینها جایگزین ما در محل کار خواهند شد. با این حال، از پروفسور گری مارکوس و ارنست دیویس که هر دو از کارشناسان مشهور هوش مصنوعی هستند، خواسته میشود که برای چنین نتیجهگیری عجله نکنند.
در ریبوت هوش مصنوعی، محققان توضیح میدهند که چرا فناوری مدرن از ایدهآل فاصله زیادی دارد. لایف هکر با مجوز انتشارات "آلپینا پرو" گزیده ای از فصل اول را منتشر می کند.
در این مرحله، یک شکاف بزرگ - یک شکاف واقعی - بین جاه طلبی ما و واقعیت هوش مصنوعی وجود دارد. این شکاف به دلیل حل نشدن سه مشکل خاص به وجود آمده است که باید صادقانه با هر یک برخورد کرد.
اولین مورد آن چیزی است که ما آن را ساده لوح می نامیم، که مبتنی بر این واقعیت است که ما انسان ها واقعاً یاد نگرفته ایم که بین انسان و ماشین تمایز قائل شویم و این باعث می شود که فریبمان را آسان کنیم. ما هوش را به کامپیوترها نسبت میدهیم زیرا خودمان در میان افرادی تکامل یافتهایم و زندگی کردهایم که عمدتاً اعمال خود را بر اساس انتزاعاتی مانند ایدهها، باورها و خواستهها بنا میکنند. رفتار ماشینها اغلب از نظر ظاهری شبیه رفتار انسانها است، بنابراین ما به سرعت ماشینها را همان نوع مکانیسمهای اساسی اختصاص میدهیم، حتی اگر ماشینها آنها را نداشته باشند.
ما نمی توانیم از نظر شناختی به ماشین ها فکر نکنیم ("کامپیوتر من فکر می کند فایلم را حذف کرده ام")، مهم نیست قوانینی که ماشین ها واقعاً از آنها پیروی می کنند چقدر ساده است. اما نتیجهگیریهایی که در مورد انسانها خود را توجیه میکنند، ممکن است در مورد برنامههای هوش مصنوعی کاملاً اشتباه باشند. در احترام به یک اصل اساسی روانشناسی اجتماعی، این را خطای اعتبار بنیادی می نامیم.
یکی از اولین موارد این خطا در اواسط دهه 1960 رخ داد، زمانی که یک ربات چت به نام الیزا برخی افراد را متقاعد کرد که او واقعاً چیزهایی را که به او میگویند درک میکند. در واقع، الیزا فقط کلمات کلیدی را انتخاب کرد، آخرین چیزی را که شخص به او گفت تکرار کرد و در یک موقعیت بن بست به ترفندهای مکالمه استانداردی مانند "از دوران کودکی خود بگویید". اگر از مادرتان نام میبردید، او از شما در مورد خانوادهتان میپرسید، اگرچه نمیدانست واقعاً خانواده چیست یا چرا برای مردم مهم است. این فقط مجموعه ای از ترفندها بود، نه نمایش هوش واقعی.
علیرغم اینکه الیزا اصلاً مردم را درک نمی کرد، بسیاری از کاربران فریب دیالوگ های با او را خوردند. برخی ساعت ها را صرف تایپ عبارات روی صفحه کلید کردند، به این شکل با الیزا صحبت کردند، اما ترفندهای چت بات را اشتباه تعبیر کردند، گفتار طوطی را با نصیحت یا همدردی مفید و صمیمانه اشتباه گرفتند.
جوزف وایزنباوم خالق الیزا.
افرادی که به خوبی می دانستند دارند با ماشین صحبت می کنند، خیلی زود این واقعیت را فراموش کردند، همانطور که عاشقان تئاتر برای مدتی ناباوری خود را کنار می گذارند و فراموش می کنند که عملی که شاهد آن هستند حق ندارد واقعی خوانده شود.
گفتوگوهای الیزا اغلب برای مکالمه خصوصی با سیستم اجازه میخواستند و پس از گفتگو، علیرغم تمام توضیحات من، اصرار داشتند که دستگاه واقعاً آنها را درک میکند.
در موارد دیگر، خطا در ارزیابی صحت ممکن است به معنای واقعی کلمه کشنده باشد. در سال 2016، یکی از صاحبان یک ماشین تسلا خودکار به قدری بر ایمنی ظاهری حالت خلبان خودکار تکیه کرد که (طبق داستان ها) کاملاً خود را در تماشای فیلم های هری پاتر غرق کرد و ماشین را رها کرد تا همه کارها را به تنهایی انجام دهد.
همه چیز به خوبی پیش رفت - تا اینکه در یک نقطه بد شد. خودرو که صدها یا حتی هزاران مایل را بدون تصادف رانندگی کرده بود (به تمام معنا) با یک مانع غیرمنتظره برخورد کرد: یک کامیون سفید رنگ از بزرگراه عبور کرد و تسلا درست زیر تریلر هجوم آورد و صاحب خودرو را در دم کشته شد.. (به نظر می رسید که اتومبیل چندین بار به راننده هشدار داده بود که کنترل را به دست بگیرد، اما به نظر می رسید که راننده آنقدر آرام بود که نمی توانست سریع واکنش نشان دهد.)
اخلاقیات این داستان روشن است: این واقعیت که ممکن است یک دستگاه برای یک یا دو لحظه (و حتی شش ماه) "هوشمند" به نظر برسد، اصلاً به این معنی نیست که واقعاً چنین است یا می تواند با همه شرایطی که در آن وجود دارد کنار بیاید. یک فرد به اندازه کافی واکنش نشان می دهد.
مشکل دوم را توهم پیشرفت سریع می نامیم: اشتباه گرفتن پیشرفت در هوش مصنوعی، مرتبط با حل مسائل آسان، برای پیشرفت، مرتبط با حل مسائل واقعاً دشوار. مثلاً در مورد سیستم IBM Watson این اتفاق افتاد: پیشرفت آن در بازی Jeopardy! بسیار امیدوارکننده به نظر می رسید، اما در واقع معلوم شد که این سیستم بسیار دورتر از درک زبان انسان از آنچه توسعه دهندگان پیش بینی کرده بودند است.
این امکان وجود دارد که برنامه AlphaGo شرکت DeepMind نیز همین مسیر را طی کند. بازی go، مانند شطرنج، یک بازی اطلاعاتی ایدهآل است که در آن هر دو بازیکن میتوانند در هر زمان کل صفحه را ببینند و عواقب حرکات را با نیروی بیرحمانه محاسبه کنند.
در بیشتر موارد، در زندگی واقعی، هیچ کس چیزی را با اطمینان کامل نمی داند. داده های ما اغلب ناقص یا تحریف شده است.
حتی در ساده ترین موارد، عدم قطعیت زیادی وجود دارد. وقتی تصمیم می گیریم پیاده به دکتر برویم یا سوار مترو شویم (از آنجایی که روز ابری است)، نمی دانیم دقیقا چقدر طول می کشد تا قطار مترو منتظر بمانیم، آیا قطار در جاده گیر می کند یا خیر. مثل شاه ماهی در بشکه داخل کالسکه می نشینیم یا بیرون زیر باران خیس می شویم، جرأت نمی کنیم سوار مترو شویم، و واکنش دکتر به تاخیر ما چگونه خواهد بود.
ما همیشه با اطلاعاتی که داریم کار می کنیم. با میلیونها بار بازی Go با خودش، سیستم DeepMind AlphaGo هرگز با عدم قطعیت برخورد نکرده است، به سادگی نمیداند چه کمبود اطلاعات یا ناقص بودن و ناهماهنگی آن، نه از پیچیدگیهای تعامل انسانی.
پارامتر دیگری وجود دارد که باعث میشود بازیهای ذهنی بسیار متفاوت از دنیای واقعی باشند و این باز هم به دادهها مربوط میشود. حتی بازیهای پیچیده (اگر قوانین به اندازه کافی سختگیرانه باشند) میتوانند تقریباً به خوبی مدلسازی شوند، بنابراین سیستمهای هوش مصنوعی که آنها را بازی میکنند میتوانند به راحتی حجم عظیمی از دادههای مورد نیاز برای آموزش را جمعآوری کنند. بنابراین، در مورد Go، یک ماشین می تواند یک بازی را با مردم به سادگی با بازی در برابر خودش شبیه سازی کند. حتی اگر سیستم به ترابایت داده نیاز داشته باشد، خود آن را ایجاد می کند.
بنابراین برنامه نویسان می توانند داده های شبیه سازی کاملاً تمیز را با هزینه کم یا بدون هزینه به دست آورند. برعکس، در دنیای واقعی، دادههای کاملاً تمیز وجود ندارند، شبیهسازی آن غیرممکن است (از آنجایی که قوانین بازی دائماً در حال تغییر هستند) و جمعآوری بسیاری از گیگابایت دادههای مرتبط به صورت آزمایشی دشوارتر است. و خطا
در واقعیت، ما فقط چند تلاش برای آزمایش استراتژی های مختلف داریم.
به عنوان مثال، ما نمیتوانیم 10 میلیون بار مراجعه به پزشک را تکرار کنیم و به تدریج پارامترهای تصمیمگیری را قبل از هر ویزیت تنظیم کنیم تا رفتار خود را از نظر انتخاب حمل و نقل به طور چشمگیری بهبود دهیم.
اگر برنامه نویسان بخواهند رباتی را برای کمک به افراد مسن آموزش دهند (مثلاً برای کمک به خواباندن افراد بیمار)، هر ذره داده ارزش پول واقعی و زمان واقعی انسان را دارد. هیچ راهی برای جمع آوری تمام داده های مورد نیاز با استفاده از بازی های شبیه سازی وجود ندارد. حتی آدمک های تست تصادف نمی توانند جایگزین افراد واقعی شوند.
جمع آوری داده ها در مورد افراد مسن واقعی با ویژگی های مختلف حرکات سالمند، روی انواع تخت ها، انواع لباس خواب، انواع مختلف خانه ها ضروری است و در اینجا شما نمی توانید اشتباه کنید، زیرا انداختن یک فرد حتی در فاصله چند فاصله. سانتی متر از تخت فاجعه خواهد بود. در این مورد، پیشرفت خاصی (تا کنون ابتدایی ترین) در این زمینه با استفاده از روش های باریک هوش مصنوعی به دست آمده است. سیستمهای رایانهای توسعه یافتهاند که تقریباً در سطح بهترین بازیکنان انسانی در بازیهای ویدیویی Dota 2 و Starcraft 2 بازی میکنند، جایی که در هر زمان تنها بخشی از دنیای بازی به شرکتکنندگان نشان داده میشود و بنابراین، هر بازیکن با مشکل کمبود اطلاعات - که با دست سبک کلاوزویتز "مه ناشناخته" نامیده می شود. با این حال، سیستمهای توسعهیافته همچنان با تمرکز بسیار محدود و در عملیات ناپایدار باقی میمانند. به عنوان مثال، برنامه AlphaStar که در Starcraft 2 بازی میکند، فقط یک مسابقه خاص را از بین شخصیتهای مختلف یاد گرفته است و تقریباً هیچ یک از این پیشرفتها مانند هر نژاد دیگری قابل بازی نیستند. و البته دلیلی وجود ندارد که باور کنیم روشهای مورد استفاده در این برنامهها برای انجام تعمیمهای موفق در موقعیتهای بسیار پیچیدهتر زندگی واقعی مناسب هستند. زندگی های واقعی همانطور که IBM نه یک بار، بلکه دو بار کشف کرده است (اول در شطرنج، و سپس در خطر!)، موفقیت در مشکلات از یک دنیای بسته به هیچ وجه موفقیت در یک جهان باز را تضمین نمی کند.
دایره سوم شکاف توصیف شده تخمین بیش از حد قابلیت اطمینان است. بارها و بارها میبینیم که به محض اینکه افراد با کمک هوش مصنوعی راهحلی برای مشکلی پیدا میکنند که میتواند برای مدتی بدون نقص کار کند، بهطور خودکار فرض میکنند که با تجدید نظر (و با مقدار کمی دادهها) همه چیز قابل اعتماد کار خواهد کرد. اما لزوماً اینطور نیست.
ما دوباره ماشین های بدون راننده می گیریم. ایجاد یک نسخه نمایشی از یک وسیله نقلیه خودمختار که به درستی در امتداد خط مشخص شده در یک جاده آرام حرکت کند، نسبتاً آسان است. با این حال، مردم توانسته اند این کار را برای بیش از یک قرن انجام دهند. با این حال، کار کردن این سیستم ها در شرایط سخت یا غیرمنتظره بسیار دشوارتر است.
همانطور که میسی کامینگز، مدیر آزمایشگاه انسان ها و خودمختاری در دانشگاه دوک (و خلبان سابق جنگنده نیروی دریایی ایالات متحده)، در ایمیلی به ما گفت، سوال این نیست که یک ماشین بدون راننده چند مایل می تواند بدون تصادف طی کند، بلکه در گستره آن است. که این خودروها قادر به تطبیق با شرایط متغیر هستند. به گفته او میسی کامینگز، در 22 سپتامبر 2018 به نویسندگان ایمیل بزنید. ، وسایل نقلیه نیمه خودران مدرن "معمولا فقط در محدوده بسیار محدودی از شرایط کار می کنند، که چیزی در مورد نحوه عملکرد آنها در شرایط کمتر از ایده آل نمی گوید."
به نظر رسیدن کاملاً قابل اعتماد در میلیونها مایل آزمایشی در فونیکس، به معنای عملکرد خوب در طول بارانهای موسمی در بمبئی نیست.
این تفاوت اساسی بین نحوه رفتار وسایل نقلیه خودران در شرایط ایده آل (مانند روزهای آفتابی در جاده های چند لاین برون شهری) و آنچه ممکن است در شرایط شدید انجام دهند، می تواند به راحتی برای کل صنعت تبدیل به یک موضوع موفقیت و شکست شود.
با تأکید بسیار کمی بر رانندگی خودکار در شرایط شدید و اینکه روششناسی فعلی در جهت اطمینان از اینکه خلبان خودکار در شرایطی که بهتازگی بهعنوان واقعی در نظر گرفته میشود به درستی کار میکند تکامل نیافته است، ممکن است به زودی مشخص شود که میلیاردها دلار صرف روشهایی برای ساخت خودروهای خودرانی شده است که به سادگی نمیتوانند قابلیت اطمینان رانندگی مانند انسان را ارائه دهند.ممکن است برای رسیدن به سطح اطمینان فنی مورد نیاز، رویکردهایی ضروری باشد که اساساً با رویکردهای فعلی متفاوت باشد.
و اتومبیل ها تنها یک نمونه از بسیاری از موارد مشابه هستند. در تحقیقات مدرن در زمینه هوش مصنوعی، قابلیت اطمینان آن در سطح جهانی دست کم گرفته شده است. این تا حدی به این دلیل است که بیشتر پیشرفتهای کنونی در این زمینه شامل مشکلاتی است که به شدت خطا را تحمل میکنند، مانند توصیه تبلیغات یا تبلیغ محصولات جدید.
در واقع، اگر پنج نوع محصول را به شما توصیه کنیم و شما فقط سه نوع از آنها را دوست داشته باشید، هیچ ضرری پیش نمی آید. اما در تعدادی از برنامههای کاربردی حیاتی هوش مصنوعی برای آینده، از جمله خودروهای بدون راننده، مراقبت از سالمندان و برنامهریزی مراقبتهای بهداشتی، قابلیت اطمینان انسانمانند بسیار مهم خواهد بود.
هیچکس رباتی خانگی نمیخرد که بتواند با خیال راحت پدربزرگ سالخورده شما را تنها چهار بار از هر پنج بار به رختخواب ببرد.
حتی در کارهایی که هوش مصنوعی مدرن از نظر تئوری باید در بهترین نور ممکن ظاهر شود، شکستهای جدی به طور منظم رخ میدهند که گاهی بسیار خندهدار به نظر میرسند. یک مثال معمولی: اصولاً رایانه ها قبلاً به خوبی یاد گرفته اند که چگونه آنچه را که در این یا آن تصویر وجود دارد (یا در حال وقوع است) تشخیص دهند.
گاهی اوقات این الگوریتم ها عالی عمل می کنند، اما اغلب خطاهای کاملاً باورنکردنی ایجاد می کنند. اگر تصویری را به یک سیستم خودکار نشان دهید که برای عکسهای صحنههای روزمره زیرنویس ایجاد میکند، اغلب پاسخی دریافت میکنید که بسیار شبیه به آنچه که یک انسان مینویسد است. به عنوان مثال، برای صحنه زیر، که در آن گروهی از مردم مشغول بازی فریزبی هستند، سیستم تولید زیرنویس گوگل دقیقاً نام درستی را به آن میدهد.
اما پنج دقیقه بعد، می توانید به راحتی از همان سیستم یک پاسخ کاملاً پوچ دریافت کنید، به عنوان مثال، با این تابلوی جاده، که شخصی برچسب ها را روی آن چسبانده است: رایانه ای به نام سازندگان سیستم توضیح نداده است که چرا این خطا رخ داده است. ، اما چنین مواردی غیر معمول نیست. میتوانیم فرض کنیم که سیستم در این مورد خاص، عکس را (شاید از نظر رنگ و بافت) شبیه به سایر تصاویر (که از آنها آموخته است) طبقهبندی کرده است که با عنوان «یخچال پر از مواد غذایی و نوشیدنیهای فراوان» برچسبگذاری شده است. طبیعتاً رایانه نمی فهمید (که شخص به راحتی می تواند درک کند) که چنین کتیبه ای فقط در مورد یک جعبه فلزی مستطیلی بزرگ با اشیاء مختلف (و حتی نه همه) داخل آن مناسب است. این صحنه "یخچال با مقدار زیادی غذا و نوشیدنی" است.
به همین ترتیب، اتومبیلهای بدون راننده اغلب به درستی آنچه را که «میبینند» شناسایی میکنند، اما گاهی اوقات به نظر میرسد که آنها چیزهای بدیهی را نادیده میگیرند، مانند مورد تسلا، که مرتباً با خودروهای آتشنشانی پارک شده یا آمبولانسهای خودکار تصادف میکند. نقاط کوری مانند این اگر در سیستم هایی قرار گیرند که شبکه های برق را کنترل می کنند یا مسئول نظارت بر سلامت عمومی هستند، می توانند خطرناک تر باشند.
برای پر کردن شکاف بین جاهطلبی و واقعیتهای هوش مصنوعی، به سه چیز نیاز داریم: آگاهی روشن از ارزشهای در خطر در این بازی، درک روشنی از اینکه چرا سیستمهای هوش مصنوعی مدرن عملکردهای خود را به اندازه کافی قابل اعتماد انجام نمیدهند، و در نهایت، یک تفکر ماشینی استراتژی توسعه جدید.
از آنجایی که خطرات هوش مصنوعی از نظر شغل، ایمنی و ساختار جامعه واقعاً زیاد است، نیاز فوری برای همه ما - متخصصان هوش مصنوعی، مشاغل مرتبط، شهروندان عادی و سیاستمداران - وجود دارد که وضعیت واقعی امور را درک کنیم. در این زمینه به منظور یادگیری ارزیابی انتقادی سطح و ماهیت توسعه هوش مصنوعی امروزی.
همانطور که برای شهروندان علاقه مند به اخبار و آمار مهم است که درک کنند چقدر ساده است که مردم را با کلمات و اعداد گمراه کنند، در اینجا نیز جنبه مهمی از درک وجود دارد تا بتوانیم بفهمیم هوش مصنوعی کجاست. فقط تبلیغات، اما کجا واقعی است آنچه او اکنون قادر به انجام آن است و آنچه را که نمی داند چگونه و شاید نتواند یاد بگیرد.
مهمترین چیز این است که بدانیم هوش مصنوعی جادو نیست، بلکه مجموعهای از تکنیکها و الگوریتمهاست که هر کدام نقاط قوت و ضعف خاص خود را دارند، برای برخی کارها مناسب هستند و برای برخی دیگر مناسب نیستند. یکی از دلایل اصلی ما برای نوشتن این کتاب این است که بسیاری از مطالبی که در مورد هوش مصنوعی می خوانیم به نظر ما یک فانتزی مطلق است که از یک اعتماد بی اساس به قدرت تقریباً جادویی هوش مصنوعی سرچشمه می گیرد.
در ضمن، این داستان ربطی به قابلیت های تکنولوژیک مدرن ندارد. متأسفانه، بحث هوش مصنوعی در بین عموم مردم به شدت تحت تأثیر حدس و گمان و اغراق بوده و هست: بیشتر مردم نمی دانند که ایجاد هوش مصنوعی جهانی چقدر دشوار است.
اجازه دهید بحث بیشتر را روشن کنیم. اگرچه شفاف سازی واقعیت های مرتبط با هوش مصنوعی مستلزم انتقاد جدی از سوی ما است، اما ما خودمان به هیچ وجه مخالف هوش مصنوعی نیستیم، ما واقعاً این سمت پیشرفت فناوری را دوست داریم. ما بخش قابل توجهی از زندگی خود را به عنوان حرفه ای در این زمینه گذرانده ایم و می خواهیم هر چه سریعتر آن را توسعه دهیم.
فیلسوف آمریکایی هوبرت دریفوس زمانی کتابی نوشت که به نظر او هوش مصنوعی هرگز نمی تواند به چه ارتفاعاتی برسد. این چیزی نیست که این کتاب در مورد آن است. این بخش تا حدی بر روی آنچه که هوش مصنوعی در حال حاضر نمی تواند انجام دهد و چرا درک آن مهم است تمرکز می کند، اما بخش قابل توجهی از آن در مورد آنچه که می توان برای بهبود تفکر رایانه ای انجام داد و گسترش آن به مناطقی که اکنون در انجام آن ابتدا مشکل دارد، صحبت می کند.
ما نمی خواهیم هوش مصنوعی ناپدید شود. ما می خواهیم آن را به طور اساسی بهبود بخشد تا بتوانیم واقعاً روی آن حساب کنیم و با کمک آن بسیاری از مشکلات بشریت را حل کنیم. ما انتقادات زیادی درباره وضعیت فعلی هوش مصنوعی داریم، اما انتقاد ما جلوه ای از عشق به علمی است که انجام می دهیم، نه فراخوانی برای دست کشیدن و رها کردن همه چیز.
به طور خلاصه، ما معتقدیم که هوش مصنوعی واقعاً می تواند جهان ما را به طور جدی متحول کند. اما ما همچنین معتقدیم که بسیاری از مفروضات اساسی در مورد هوش مصنوعی قبل از اینکه بتوانیم در مورد پیشرفت واقعی صحبت کنیم، باید تغییر کنند. "بازنشانی" هوش مصنوعی پیشنهادی ما به هیچ وجه دلیلی برای پایان دادن به تحقیق نیست (اگرچه ممکن است برخی کتاب ما را دقیقاً با این روحیه درک کنند)، بلکه یک تشخیص است: اکنون کجا گیر کرده ایم و چگونه از آن خارج شویم. وضعیت امروز
ما بر این باوریم که بهترین راه برای حرکت رو به جلو ممکن است این باشد که به درون نگاه کنیم و با ساختار ذهن خود روبرو شویم.
ماشین های واقعاً هوشمند لازم نیست کپی دقیق انسان ها باشند، اما هرکسی که صادقانه به هوش مصنوعی نگاه کند می بیند که هنوز چیزهای زیادی برای یادگیری از انسان ها وجود دارد، به ویژه از کودکان خردسال، که از بسیاری جهات بسیار برتر از ماشین ها هستند. توانایی آنها در جذب و درک مفاهیم جدید.
دانشمندان علوم پزشکی اغلب کامپیوترها را به عنوان سیستمهای «فوق بشری» (به هر طریقی) توصیف میکنند، اما مغز انسان هنوز از همتایان سیلیکونی خود در حداقل پنج جنبه بسیار برتر است: ما میتوانیم زبان را درک کنیم، میتوانیم جهان را درک کنیم، میتوانیم انعطافپذیر باشیم. با شرایط جدید سازگار شویم، می توانیم به سرعت چیزهای جدید یاد بگیریم (حتی بدون مقادیر زیاد داده) و در مواجهه با اطلاعات ناقص و حتی متناقض استدلال کنیم. در همه این جبهه ها، سیستم های هوش مصنوعی مدرن به طور ناامیدکننده ای از انسان ها عقب هستند.
هوش مصنوعی: راهاندازی مجدد، افرادی را که میخواهند فناوریهای مدرن را درک کنند و بفهمند چگونه و چه زمانی نسل جدیدی از هوش مصنوعی میتواند زندگی ما را بهتر کند، علاقهمند خواهد شد.
توصیه شده:
9 سوال ساده در مورد هوش مصنوعی
بسیاری از مردم فقط به صورت سطحی در مورد هوش مصنوعی می دانند. مدیر ارشد دیجیتال Sever.AI جزئیات بیشتری را توضیح می دهد و به سوالات متداول پاسخ می دهد
هوش مصنوعی: 8 سخنرانی TED در مورد هوش فوق العاده
خطر هوش مصنوعی چیست، چگونه ابرهوش زندگی ما و جهان اطراف را تغییر می دهد - پاسخ این سوالات و سوالات دیگر را در مجموعه ای از سخنرانی های TED خواهید یافت
دنیای برادر بزرگ: دوربین های هوش مصنوعی چه کاری می توانند انجام دهند
دوربین هوشمند دستگاهی است که دیگر فقط آنچه را که به آنها نشان میدهید تشخیص نمیدهد، بلکه میتواند از این دانش برای ارائه امکانات جذاب و گاه وحشتناک استفاده کند
یکی از خالقان سیری در مورد اینکه چگونه هوش مصنوعی می تواند زندگی ما را بهبود بخشد صحبت می کند
تام گروبر چشم انداز خود را از آینده ای به اشتراک گذاشت که در آن هوش مصنوعی توانایی های ما را گسترش دهد و با ما تعامل کند
چگونه توسعه هوش مصنوعی حرفه طراحی را تغییر می دهد
هوش مصنوعی در حوزه های مختلف زندگی ما نفوذ می کند. ما به شما می گوییم که این تغییرات چگونه بر کار طراحان تأثیر می گذارد