آیا هوش مصنوعی تهدیدی برای انسان است؟ هوش مصنوعی، تهدیدی بالقوه برای بقای بشریت آیا یک ماشین حساب فوق العاده می تواند یک تهدید باشد؟
یک آخرالزمان جهانی شامل هوش مصنوعی (هوش مصنوعی) به طور فزاینده ای محققان برجسته جهان را در این زمینه می ترساند. فناوری رایانه. این میتواند خیزش روباتهایی باشد که با هدایت برنامه و ارزشهای خود، میخواهند اشکال حیات بیولوژیکی را در این سیاره نابود کنند. سناریویی که در آن ماشینهای کنترلشده با هوش مصنوعی به شکل غالب زندگی تبدیل شوند ممکن است.
چرا دانشمندان مشهور جهانی مانند بیل گیتس، استیو هاوکینگ، ایلان ماسک و دیگران نگران این مشکل هستند و تهدید واقعی این سناریو را علنا اعلام می کنند؟ آیا اتفاقاتی که در فیلم هالیوودی «ترمیناتور» افتاد می تواند پیشگویی باشد؟ مشخص است که هر داستان تخیلی بر اساس حقایق واقعی است.
کامپیوترها در دروغگویی و فریبکاری بهتر می شوند
دروغ گفتن شکلی از رفتار است که در فرآیند تکامل ایجاد شده است. مردم، برخی از حیوانات و پرندگان، برای به دست آوردن غذا و منافع، به فریب متوسل می شوند که شانس بقا را افزایش می دهد. اخیراً، این روشهای تکاملی با موفقیت توسط ماشینهای هوش مصنوعی تسلط یافتهاند.
طراحان موسسه فناوری جورجیا در ساخت ربات هایی که از دروغ و فریب در الگوریتم های رفتاری خود استفاده می کنند، پیشرفت کرده اند. دانشمندان بر این باورند که این فناوری در آینده کاربرد گسترده ای در حوزه نظامی پیدا خواهد کرد.
فرض بر این است که نمونه های اولیه ربات ها می توانند در شرایط جنگی واقعی مورد استفاده قرار گیرند. این مکانیسم های متحرک قادر خواهند بود برای محافظت از ذخایر و انبارهای مهمات کار کنند. با استفاده از برنامه های فریب، ماموران امنیتی آینده قادر خواهند بود مسیرهای گشت زنی خود را تغییر داده و اقدامات غیرقابل پیش بینی انجام دهند. همانطور که توسعه دهندگان برنامه ریزی می کنند، چنین روش هایی به فریب دشمنان بالقوه مردم و سایر ربات ها کمک می کند.
به گفته پروفسور آرکین، تحقیقات با تعدادی از مشکلات اخلاقی. از دست دادن کنترل بر فناوری، اگر به دست بدخواهان بیفتد، می تواند به یک فاجعه جدی منجر شود.
ماشین آلات بازار کار را در دست گرفته اند
در حالی که عموم مردم مشغول فکر کردن به یک جنگ جهانی شامل هوش مصنوعی هستند، دانشمندان در حال توصیف خطرات فوری و واقعی هستند. ماشینها و مکانیزمهای اتوماتیک مختلف به طور فزایندهای در تولید استفاده میشوند و مشاغل را از بین میبرند.
بسیاری از تحلیلگران و کارشناسان موافقند که پیشرفت های فعال در زمینه برنامه های منطقی و اتوماسیون می تواند منجر به از دست دادن شغل بسیاری از افراد شود. در ایالات متحده آمریکا بیش از 250 هزار ربات در تولید کارهای سنتی انسان فعالیت دارند.
در کشورهای شرق که بیش از 90 درصد فناوری جهان را تولید می کنند، همچنان حاکم است. کار دستی. تنها می توان حدس زد که با ظهور ربات ها چه اتفاقی برای افرادی که در تولید مشغول به کار هستند، خواهد آمد.
این فقط کارگران نیستند که ابراز نگرانی می کنند که ماشین ها انسان ها را از بازار کار جابجا می کنند. اندرو نگ، متخصص هوش مصنوعی از پروژه مغز گوگل و کارشناس برجسته بایدو (معادل چینی گوگل) نیز نسبت به تحولات فعال در زمینه هوش مصنوعی ابراز نگرانی کردند. به گفته وی، هوش الکترونیکی مصنوعی قادر است مانند یک فرد معمولی، سریعتر، بهتر و با منابع کمتر عمل کند.
دانشگاه آکسفورد در بریتانیا تحقیقاتی را انجام داده است که منعکس کننده پویایی تأثیر هوش مصنوعی بر تولید است. بر اساس داده های به دست آمده، طی بیست سال آینده، 35 درصد مشاغل توسط هوش مصنوعی کنترل خواهند شد.
برنامه های کامپیوتری برتر از هکرها هستند
از دیدگاه آدم عادی، یک هکر مانند یک ابر مرد است که قادر به دستیابی به هر نتیجه ای است. در واقع، اینها برنامه نویسانی هستند با حالتی خسته در چهره و یک فنجان قهوه سنتی.
هک یک فعالیت نسبتا خسته کننده و خسته کننده است که زمان و منابع زیادی را می طلبد. علاوه بر این، کل بخش های متخصصان درگیر توسعه برنامه هایی هستند که برای محافظت در برابر نفوذ طراحی شده اند. بزرگترین تهدید برای هکرهای بد از سیستم های پیشرفته هوش مصنوعی ناشی می شود.
هوش مصنوعی نه تنها برای محافظت، بلکه برای هک نیز قابل استفاده است. در چارچوب یک برنامه امنیت سایبری، هوش مصنوعی در حال توسعه است که میتواند آسیبپذیریها را در دشمنان پیدا کند، در حالی که به صورت آنلاین از دستگاههای منطقی خود در برابر تهدیدات و حملات خارجی محافظت میکند.
به گفته دانشمندان، هکرهای الکترونیکی مبتنی بر هوش مصنوعی به منظور دستیابی به منافع و رفاه عمومی در حال توسعه هستند. اما اگر مهاجمان به چنین برنامه هایی دسترسی پیدا کنند، اتفاقات غم انگیزی رخ می دهد. تصور موقعیتی که یک هوش مصنوعی قدرتمند پروتکل های امنیتی یک نیروگاه هسته ای را هک کرده و کنترل کامل را به دست می آورد، ترسناک است. در این شرایط، بشریت ممکن است خود را درمانده ببیند.
برنامه ها یاد می گیرند که انگیزه های افراد را درک کنند
زندگی روزمره بسیاری از مردم با استفاده از شبکه های اجتماعی مختلف پیوند ناگسستنی دارد. یکی از مهمترین شبکه های محبوبدر دنیا فیسبوک است. اما تعداد کمی از مردم می دانند که هر بازدید از یک شخص به صفحات این شبکه اجتماعی، از هوش مصنوعی دور نمی ماند. مارک زاکربرگ در سفر خود به برلین توضیح داد که هوش مصنوعی چه اهدافی را دنبال می کند.
این برنامه برای تجزیه و تحلیل رفتار کاربران در صفحات فیس بوک طراحی شده است. بر اساس داده های جمع آوری شده، برنامه توصیه هایی در مورد علایق و ترجیحات مخاطبان ارائه می دهد. در این مرحله از توسعه، سیستم خودمختار قادر به تشخیص الگوها و خودآموزی مطابق با برنامه است.
در آینده برنامه ریزی شده است که هوش مصنوعی هوشمندی ایجاد کند که بتواند به طور مستقل مهارت های خود را با بازنویسی کد خود بهبود بخشد. این ممکن است به بهبود زندگی منجر شود یا ممکن است به آخرین پیشرفت بشریت تبدیل شود.
سایبورگ ها جایگزین عاشقان خواهند شد
بسیاری از فیلم های هالیوود بر اساس ایده عشق و روابط بین گونه ای بین انسان و ماشین ساخته شده اند. از قلمرو علمی تخیلی، این مفهوم به دنیای مدرن سرازیر می شود.
دکتر ایان پیرسون آینده پژوه معتقد است که تا سال 2050، رابطه جنسی بین یک فرد و یک روبات بیشتر از بین افراد اتفاق می افتد. این دانشمند به طور فعال با Bondara، پیشرو زنجیره فروشگاه های جنسی در بریتانیا همکاری می کند.
گزارش پزشک اشاره می کند که تا سال 2025، ربات های جنسی با هوش مصنوعی ساخته خواهند شد. تا سال 2035، رابطه جنسی از طریق واقعیت مجازی در سطح پورنوگرافی مدرن گسترده خواهد شد. و تا سال 2050، رابطه جنسی با روبات ها به یک واقعیت روزمره تبدیل خواهد شد و تبدیل به یک هنجار خواهد شد.
مدافعان ارزش های سنتی نسبت به رابطه جنسی با ماشین های هوشمند تمایل منفی دارند. چنین ارتباطاتی سطح انتظارات را بسیار بالا میگذارد، که بر نحوه رفتار با زنان تأثیر منفی میگذارد.
ماشین ها بیشتر و بیشتر شبیه انسان می شوند
توسعه دهندگان در زمینه ساخت ربات های انسان نما، هیروشی ایشی گورو ژاپنی و چینی سان یانگ، یک ماشین منحصر به فرد ساختند. سایبورگ یانگ یان ظاهر خالق خود را دارد و به نام دخترش نامگذاری شده است. این دستگاه دارای هوش مصنوعی است و قادر به انجام تعدادی کار ساده است.
این تنها نمونه انسان نما از روباتیک نیست. دانشگاه فنی سنگاپور نیز نمونه ای مدرن از سایبورگ را پیشنهاد کرد - نادین. این نمونه اولیه نیز دارای هوش مصنوعی است و در یک موسسه آموزشی فعالیت می کند.
طراحی شده به شکل یک سبزه جذاب، با پوست نرم، سایبورگ دارای تعدادی عملکرد داخلی است. این ربات می تواند با دست دادن با همکار خود ملاقات و احوالپرسی کند. این دستگاه همچنین می تواند تماس چشمی و لبخند ایجاد کند. هوش مصنوعی قادر است مهمانان را به خاطر بسپارد و گفت و گوهای ساده را بر اساس تجربه قبلی حفظ کند.
ربات ها احساسات را به دست می آورند
ربات های مدرن از نظر هوش چیزی از انسان ها پایین نیستند. به لطف تحولات اخیر، تشخیص یک سایبورگ از یک انسان در ظاهر بسیار دشوار است. تاکنون، تنها ویژگیای که روباتها واقعاً ندارند، توانایی احساس کردن است. دانشمندان در سراسر جهان در حال کار بر روی این مشکل هستند. و به زودی ربات ها کاملاً از مردم قابل تشخیص نیستند.
توسعه دهندگان شعبه آسیای شرقی مایکروسافت Application & Services Group یک برنامه منحصر به فرد منتشر کرده اند. کامپیوتر قادر است با طرف مقابل گفتگو کند و در عین حال احساسات را تجربه کند. هوش مصنوعی که هیاچه نام دارد، می تواند از سبک مکالمه یک دختر هفده ساله تقلید کند.
در صورت کمبود داده، سیستم می تواند به دروغ متوسل شود. اگر او در حال خیانت دستگیر شود، هیاوچه ممکن است عصبانیت یا خجالت خود را ابراز کند. هوش مصنوعی ممکن است به طعنه متوسل شود، مشکوک باشد و ابراز بی تابی کند.
غیرقابل پیش بینی بودن پاسخ های برنامه یادآور ارتباط با آن است شخص واقعی. تاکنون این فناوری پیدا نشده است کاربرد گستردهو اغلب برای سرگرمی استفاده می شود. خالق Hiaoche در حال کار بر روی بهبود الگوریتمهای منطقی است که میتواند به یک پیشرفت اساسی در آینده منجر شود.
خودروها به زودی در سر ما خواهند آمد
با توجه به تحولات اخیر، فرصت های جدیدی در حال باز شدن است. دیگر به نظر نمی رسد فوق العاده باشد، فرصتی برای یادگیری زبان خارجیدر چند دقیقه، با دانلود آن در مغز. مدیر فنیگوگل ری کورزویل معتقد است که تا سال 2030 فناوری کاشت نانو ربات ها در مغز توسعه خواهد یافت. این امر هوش انسان را به سطح اساسی جدیدی ارتقا می دهد.
این مکانیسمهای خرد هوشیاری را به یک مرکز محاسباتی قدرتمند تبدیل میکنند. یک فرد می تواند فوراً هر اطلاعاتی را به خاطر بسپارد، افکار خود را مرتب کند و به آرشیو ارسال کند. در صورت نیاز امکان دانلود فیلم، اسناد و دریافت ایمیل به سر وجود خواهد داشت.
کورزویل، متخصص در زمینه هوش مصنوعی، معتقد است که همزیستی با نانوروباتها نه تنها به افزایش هوش کمک میکند، بلکه میتواند تعدادی از بیماریهای مرتبط با فعالیت سیستم عصبی را نیز درمان کند.
تهدیدهای استفاده از چنین فناوری را می توان با یک تئوری توطئه جهانی مقایسه کرد. با به دست آوردن کنترل ذهن بر سیاستمدار برجسته کشور، هوش مصنوعی قادر خواهد بود او را مانند یک زامبی ضعیف کنترل کند. همچنین، چنین سیستمی می تواند توسط سرویس های اطلاعاتی استفاده شود که نوید خوبی ندارد.
چگونه روبات ها به سلاح تبدیل می شوند
با سقوط اتحاد جماهیر شوروی, جنگ سردبه پایان نرسید دو ابرقدرت جدید چین و روسیه در صحنه جهانی ظاهر شده اند. آمریکا نیز به نوبه خود ده ها میلیارد دلار برای پیشرفت در زمینه امنیت رایانه هزینه می کند.
پنتاگون معتقد است که کلید برتری فناوری آینده در استفاده از هوش مصنوعی نهفته است. توسعه سیستم های خودمختار خودآموز، و همچنین حوزه های موازی و مرتبط، به طور فعال در حال توسعه است. نمونه های اولیه تجهیزات نظامی کنترل شده از راه دور توسعه یافته اند.
استفاده از چنین وسایلی در زمان جنگ نویدبخش مزایای زیادی است. سربازان مجبور نیستند خود را در معرض آتش دشمن قرار دهند و جان خود را به خطر بیندازند. روحیه دشمن در جنگ با روبات های غیر زنده نیز تضعیف خواهد شد.
نیز وجود دارد سمت عقب. هر تجهیزات کامپیوتری در معرض خرابی و هک سیستم است. در این حالت، روباتهایی که خارج از کنترل ظاهر میشوند، میتوانند سلاحها را علیه سازندگان و غیرنظامیان خود بچرخانند.
بسیاری از کارشناسان برجسته هوش مصنوعی از ایده ایجاد رباتهای رزمی مستقل حمایت نمیکنند. اما، با توجه به افزایش رویارویی نظامی در جهان و عدم وجود ممنوعیت بین المللی برای استفاده از چنین فناوری هایی، بسیاری از کشورها توسعه خود را به صورت کاملا محرمانه انجام می دهند. به زودی گزارش های بیشتری در مورد استفاده از روبات ها در نقاط داغ سیاره منتشر خواهد شد.
ربات ها در جهت اشتباه یاد می گیرند
با پیشبینی خرابیهای احتمالی در برنامهها و بهمنظور جلوگیری از خیزش ماشینها، مفاهیم جدیدی با هدف تبیین رفتار صحیح و نامطلوب به ماشین توسعه مییابد.
این پیشرفت ها به طور بالقوه می تواند هوش مصنوعی را انسانی تر کند. برخی از دانشمندان این رویکرد را کلیدی برای جلوگیری از تبدیل سلاحهای هوش مصنوعی علیه بشریت میدانند.
آزمایش های منحصر به فردی در موسسه فناوری جورجیا در حال انجام است. محققان به رهبری مارک ریدل و برنت هریسون، داستان های کامپیوتری را به معنای واقعی کلمه بیان می کنند. به این ترتیب، آنها تلاش میکنند تا با توسعه اخلاقیات هوش مصنوعی، ارزشهای انسانی را معرفی کنند. دانشمندان از روش های مورد استفاده در تربیت کودک برای آموزش این برنامه استفاده می کنند. هوش مصنوعی مانند یک کودک بی تجربه، مفاهیم خوب و بد را تشخیص نمی دهد.
یک نقص جدی در این رویکرد وجود دارد. تاریخ بشر شامل نمونههای بسیاری است که در آن شرایط کل کشورهای بسیار پیشرفته را مجبور به شروع جنگ و ارتکاب جنایات وحشتناک کرد. نمونه آن آلمان فاشیست است که سربازانش نسل کشی کل مردم را انجام دادند. در عین حال فرهنگ آلمان در آن زمان یکی از توسعه یافته ترین فرهنگ های جهان بود. چه چیزی مانع از تکرار تجربه هیتلر توسط هوش مصنوعی می شود؟
روز دیگر بحث دیگری در فیس بوک در مورد خطر بالقوهبرای بشریت فن آوری های شناختی و تمام هوش مصنوعی. شایان ذکر است که این موضوع در تمام طول دوره توسعه در این زمینه مطرح شده است، اما اخیراً به طور قابل توجهی قوی تر شده است - و نه تنها در روسیه، بلکه در بسیاری از کشورهای پیشرو، از جمله ایالات متحده آمریکا. نمی توان گفت که وضعیت در آنجا به حالت هیستری رسیده است، اما جنبش علیه هوش مصنوعی به وضوح در حال شتاب گرفتن است. ضمناً در رأس آن پست ترین افراد جامعه نیست. اینها شامل جودی ویلیامز برنده جایزه صلح نوبل است که امسال کمپین قدرتمندی با عنوان «روبات ها را متوقف کنید» راه اندازی کرد. و یکی از بنیانگذاران اسکایپ، جان تالین. با مشارکت او، سال گذشته یک مرکز علمی برای مطالعه خطرات وجودی در کمبریج ایجاد شد. در فهرست چهار تهدید بالقوه پیش روی بشریت، کارشناسانی که شامل دانشمندان، فیلسوفان و مهندسان مشهور هستند، قرار داده اند. هوش مصنوعی، تغییرات آب و هوایی، سلاح های هسته ای و بیوتکنولوژی (امکان ایجاد زندگی مصنوعی).
با این حال، نباید فکر کرد که علت نگرانی متخصصان و کارشناسان همین است سطح بالااین دیدگاه است که هوش مصنوعی در آینده بشریت را جذب خواهد کرد. کاتالیزور اصلی اضطراب عمومی موارد فزاینده برتری هوش مصنوعی بر هوش طبیعی است.
شایان ذکر است که اولین صداهای نگران کننده در مورد چنین توسعه رویدادها در اواسط دهه 1990 شنیده شد، زمانی که یک پیشرفت جدی در زمینه پردازش هوشمند اطلاعات رخ داد و ماشین های هوشمند یاد گرفتند که محتوای انواع خاصی از اسناد را درک کنند. جرم آنها بهتر از انسان. آنها به طرز ماهرانه ای اسناد را تجزیه کردند و جای هوش، اگر نه صدها، ده ها منشی و اپراتور در شرکت های داخلی را گرفتند. سپس برنامه هایی ظاهر شدند که قادر به درک مطالب آرشیوهای بزرگ و نتیجه گیری و پیش بینی مناسب بر اساس آنها بودند. بارزترین مورد برتری فنی، البته، باخت گری کاسپاروف به کامپیوتر دیپ بلو بود.
امروز ما ماشینهایی داریم که کار میکنند موفق تر از یک شخصدر شطرنج، رانندگی، درک اسناد، تجارت مالی، تشخیص چهره، گفتار و متن. اینترنت مملو از انواع رباتها و اطلاعاتی است که میتوانند درباره موقعیتهای خاص نظر بدهند و مکالمه را حفظ کنند. حتی سیستم های مدیریت اسناد روباتیک نیز ظاهر شده اند که می توانند زمان را درک کنند محیط خارجیآنها نصب شده و با آن تطبیق داده می شوند. به هر حال، دقیقاً این سیستم روسی "E1 Eufrates" بود که هدف حملات تک تک کاربران اینترنت قرار گرفت. آنچه بیش از همه آنها را نگران می کرد این بود که یک سیستم شناختی با استفاده از الگوریتم های خودآموز به طور مستقل می تواند فعالیت هایی را در فضای اطلاعاتی سازمان توسعه دهد و به آن آسیب برساند. البته چنین فرمول بندی سوال معمولا باعث لبخند متخصصان می شود. در سامانه E1 فرات، فرآیند خودآموزی در سطح محلی اتفاق می افتد و هیچ شانسی برای خارج شدن از کنترل آن وجود ندارد. به همین ترتیب، می توان فرض کرد که خطاهایی که به عنوان مثال در یک برنامه حسابداری متوجه نشده اند، می توانند هارد دیسکی که روی آن نصب شده است را از بین ببرند.
اما به طور کلی، نگرانی عمومی تعجب آور نیست. ما نمیتوانیم از چنین بحثهایی اجتناب کنیم، و با پیشرفت فناوریهای هوش مصنوعی، آنها متداولتر و سرزندهتر خواهند شد. وقتی خود پنتاگون مجبور شد به اعتراضات گسترده مردم آمریکا پاسخ دهد، چه می توانیم بگوییم که نگران این بود که وسایل نقلیه روباتیک نظامی به طور انتقادی پذیرفته شوند؟ تصمیمات مهمبدون کمک دیگری. در نتیجه، اشتون کارتر، معاون وزیر دفاع ایالات متحده، حتی بیانیه ای مبنی بر اینکه هیچ یک از وسایل نقلیه نظامی روباتیک تصمیمی برای آسیب رساندن به یک فرد نمی گیرند، صادر کرد.
و با این حال، بشریت چه امروز و چه در آینده قابل پیش بینی نباید بترسد. همه نگرانیهای فعالان بیشتر در یک سطح اجتماعی است تا علمی یا عملی. فعالیتهای مرکز بریتانیایی برای مطالعه ریسکهای جهانی، در واقع تأیید میکند که همین پرسشها و احساسات در سایر حوزههای زندگی نیز به وجود میآیند. این یک بخش عادی از هر فرآیند توسعه است. نکته اصلی که یک واقعیت غیرقابل انکار است، اثربخشی واقعی استفاده از سیستم های هوش مصنوعی است. و بسیاری از مشکلات، از جمله جهانی، پیش روی ما، مانند پردازش Bigdata حجم عظیمی از اطلاعات انباشته شده توسط بشر، مانند بسیاری دیگر، بدون سیستم های هوش مصنوعی قابل حل نیستند.
هوش مصنوعی (AI) موضوعی است که مدتهاست در صفحات مجلات علمی مشهور بوده و مدام در فیلمها و کتابها به آن پرداخته میشود. هر چه متخصصان بیشتر این حوزه از علم را توسعه دهند، با اسطوره های بیشتری پوشانده می شود.
توسعه و آینده هوش مصنوعی نیز کسانی را که در راس دولت هستند نگران می کند. چندی پیش، ولادیمیر پوتین، رئیس جمهور روسیه، در بیستمین سالگرد تاسیس این شرکت از دفتر Yandex بازدید کرد، جایی که آنها به او توضیح دادند که چه زمانی هوش مصنوعی از هوش انسانی پیشی خواهد گرفت.
هر کسی که ذات پتانسیل هوش مصنوعی را حتی اندکی درک کند میداند که این موضوع را نمیتوان نادیده گرفت. این موضوع نه تنها موضوع مهمی برای بحث است، بلکه احتمالاً یکی از مهمترین موضوعات در آینده است.
به طور خلاصه، در کشور ما موفقیت های محسوسی وجود دارد.
هرچه فناوریهای هوش مصنوعی سریعتر توسعه یابند، بیشتر میشوند قوی تر از مردمترس این است که چقدر زود بیکار می مانند. واقعا اینقدر بد است؟
بله و خیر. بشریت قبلاً چندین بار با ظهور فناوری هایی روبرو شده است که کل حوزه تولید را متحول کرده است.
این مورد در مورد ماشین بخار در آن دوره بود انقلاب صنعتیکه عملا بسیاری از حرفه ها (عمدتاً مربوط به کار فیزیکی بدوی) را نابود کرد، این مورد در مورد رایانه های الکترونیکی بود که جایگزین انسان ها در وظایف مبتنی بر محاسبات مداوم ریاضی شد.
در قرون 15 تا 18، زمانی که "گوسفندها مردم را می خوردند" در انگلستان، پیامدهای اجتماعی واقعاً فاجعه بار بود. بر اساس برآوردهای مختلف، انگلستان از 7 تا 30 درصد جمعیت خود را از دست داد. نخبگان قدرت در آن زمان به طور جدی نگران این بودند که با چه کار کنند افراد اضافی. جاناتان سوئیفت با یک جزوه طنز به این جست و جوها پاسخ داد که در آن پیشنهاد داده بود فرزندان فقرا را به عنوان غذا بخورند.
با این حال، امروزه می بینیم که حرفه های منقرض شده با مشاغل جدیدی جایگزین شده اند و جمعیت زمین بسیار بیشتر از قرن هجدهم است. در قرن بیستم، پیامدهای اتوماسیون دیگر از نظر اجتماعی فاجعه بار نبود. با این حال، خطر را نباید دست کم گرفت.
موشه واردی، استاد مهندسی کامپیوتر و مدیر مؤسسه فناوری اطلاعات کن کندی در دانشگاه رایس، پیشبینی کرد: «در 30 سال، روباتها میتوانند تقریباً هر کاری را که انسان میتواند انجام دهد، انجام دهد». این امر منجر به بیکار شدن بیش از 50 درصد از ساکنان جهان خواهد شد."
ربات ها مشغول به کار هستند
روز گذشته، لئونید لوین، رئیس کمیته دومای دولتی در سیاست اطلاعات، فناوری اطلاعات و ارتباطات گفت که مشکل جایگزینی نیروی کار با هوش مصنوعی برای روسیه مهم است.
دیر یا زود، یک سیستم خودکار جایگزین مردم خواهد شد و 2 درصد از جمعیت شاغل کشور به بازار سرازیر خواهند شد. لوین قبلاً گفته است که چرا باید به این فکر کنیم که چگونه آنها را استخدام کنیم، کسانی که در نتیجه توسعه فناوری های دیجیتال شغل خود را از دست می دهند.
به گفته رئیس، در آینده نزدیک با افزایش بیکاری مواجه خواهیم بود. اما آیا رباتها واقعاً مشاغل ما را از بین میبرند و آیا سرگئی مارکوف، متخصص یادگیری ماشینی، به ریدوس گفت؟
سرگئی ، حتی در حال حاضر "حرفه های مرده" وجود دارد که نیازی به کار انسانی ندارند ، اگرچه به نظر می رسد 10 سال پیش هیچ کس فکر نمی کرد که به عنوان مثال ، هادی ها به زودی غیر ضروری شوند. فناوری جایگزین چه حرفه های دیگری می شود؟
ما به زمانی نزدیک می شویم که ماشین ها تقریباً در هر فعالیتی از انسان پیشی می گیرند. من معتقدم جامعه باید قبل از اینکه به اوج خود برسد با این مشکل روبرو شود. اگر ماشینها بتوانند تقریباً هر کاری را که مردم میتوانند انجام دهند، انجام دهند، چه کاری باید انجام دهند؟ موشه واردی، استاد مهندسی کامپیوتر و مدیر مؤسسه فناوری اطلاعات کن کندی در دانشگاه رایس گفت.
برای مدت طولانی، محدودیتهای فناوری بر سر راه اتوماسیون قرار داشت - ماشینها نمیتوانستند تصاویر و گفتار را تشخیص دهند، نمیتوانستند صحبت کنند، معنی عبارات را به زبان طبیعی به خوبی درک نمیکردند، و دادههای کافی برای یادگیری بسیاری از چیزهای آشنا را نداشتند. به انسان ها
به لطف پیشرفت های اخیر در هوش مصنوعی، بسیاری از این محدودیت ها در واقع برداشته شده اند. علاوه بر این، بسیاری از مشاغل خود دستخوش تحول شده اند و آنها را برای اتوماسیون مناسب تر کرده است.
به عنوان مثال، یک کارمند اداری مدرن مکاتبات را نه به صورت کاغذی، بلکه در داخل انجام می دهد در قالب الکترونیکی، حسابدار نه بر روی کاغذ، بلکه در یک برنامه حسابداری، اپراتور ماشین اغلب دستگاه را نه با کمک دستگیره، بلکه با کمک یک برنامه کنترلی کنترل می کند. بنابراین، اکنون وظیفه اتوماسیون در بسیاری از مشاغل دیگر علمی نیست و صرفاً مهندسی شده است.
درست است، تا کنون بخش تولید مرتبط با هوش مصنوعی به احتمال زیاد شغل ایجاد می کند - متخصصان در این زمینه مورد نیاز هستند فراگیری ماشینو آماده سازی داده ها، کارمندان برای علامت گذاری آرایه های آموزشی، متخصصان پیاده سازی و غیره. اما در یک مقطع زمانی، گوسفند برقی قطعا شروع به خوردن مردم می کند و عواقب آن باید در حال حاضر رسیدگی شود.
مهم این است که بفهمیم چه چیزی را متوقف کنیم پیشرفت فنیغیرممکن است و تلاش برای انجام آن عواقب بسیار فاجعه بارتری را در پی خواهد داشت.
آیا هرگز قادر خواهیم بود به طور کامل به ربات ها (AI) اعتماد کنیم یا هنوز باید عامل انسانی در هر کسب و کاری وجود داشته باشد؟
این سوال چند جنبه دارد. از یک طرف، مردم در گذشته تقریباً نسبت به هر فناوری محتاط بودند. اولین آسانسور، اولین ماشین، اولین قطار یا هواپیما - همه اینها زمانی غیرعادی بود و برای بسیاری خطرناک به نظر می رسید. بله، از بسیاری جهات خطرناک بود - بلایای انسان ساز جان بسیاری را گرفت.
و با این حال، این روزها، همه این چیزها آشنا شده اند و دیگر ترس زیادی ایجاد نمی کنند. از این نظر، فرزندان ما با سیستمهای هوش مصنوعی با آرامش بیشتری رفتار خواهند کرد. مردم گاهی اوقات تمایل دارند چیزهایی را که نمی فهمند ابهام کنند. وحشی فکر می کند که یک روح شیطانی در لوکوموتیو زندگی می کند، و مرد مدرن در خیابان فکر می کند که سیستم های هوش مصنوعی ما هوشیار هستند، اگرچه این موضوع دور از واقعیت است.
از سوی دیگر، فکر نمیکنم سیستمهای هوش مصنوعی با هدف کلی هرگز بخشی از محیط تولید ما شوند. به نظر من، آینده بیشتر در سیستم های مصنوعی نهفته است - یعنی در اتحاد انسان و ماشین در یک ارگانیسم واحد. از این حیث، هوش مصنوعی آینده، هوش انسانی افزایش یافته خواهد بود.
به هر حال، طبیعی نامیدن هوش انسانی نیز کاملاً صحیح نیست. کودک از بدو تولد هوش ندارد، والدین و محیط به او همه چیز را یاد می دهند. از این نظر، من و شما اساساً «هوش مصنوعی» هستیم و ترسهای ما در ارتباط با هوش مصنوعی از بسیاری جهات ترس از خودمان است.
اخیراً بسیاری از دانشمندان، به عنوان مثال، استیون هاوکینگ، بیل گیتس یا همان ایلان ماسک، شروع به وحشت کردند که هوش مصنوعی بشریت را محکوم به مرگ می کند و آینده را نوعی دیستوپیا می بینند. آیا چنین پیش بینی هایی را باید جدی گرفت؟
راستش من عجله ای برای ترساندن جدی از این اظهارات ندارم. استیون هاوکینگ قطعا در زمینه هوش مصنوعی متخصص نیست و ایلان ماسک نیز چنین نیست.
در طرف دیگر مقیاس اظهارات افرادی مانند اندرو نگ، دانشمند کامپیوتر آمریکایی، دانشیار دانشگاه استنفورد، محقق رباتیک و یادگیری ماشین، متخصص برجسته در آزمایشگاه هوش مصنوعی شرکت چینی بایدو قرار دارد.
یون که در مورد مشکل ایمنی هوش مصنوعی صحبت میکند، آن را با مشکل جمعیت بیش از حد در مریخ مقایسه میکند - البته، ما روزی مریخ را مستعمره خواهیم کرد و سپس، شاید در نقطهای یک مشکل ازدیاد جمعیت در آنجا به وجود بیاید. اما آیا ارزش انجام آن را امروز دارد؟
مارک زاکربرگ نیز نسبت به اظهارات ماسک کاملاً مشکوک بود. او گفت: «هوش مصنوعی زندگی ما را در آینده بهتر خواهد کرد و پیشبینی پایان جهان بسیار غیرمسئولانه است.
شخصاً، من فکر می کنم که اظهارات ماسک باید به شیوه ای عمل گرایانه نگریست - ماسک می خواهد ادعایی در مورد این موضوع داشته باشد و در حالت ایده آل، بودجه ای را از دولت برای توسعه آن دریافت کند.
آیا واقعاً همه چیز خیلی گلگون است و جای نگرانی نیست؟
به نظر من خطرات واقعی مرتبط با توسعه هوش مصنوعی در سطحی کاملاً متفاوت با آنچه معمولاً تصور می شود نهفته است. خطرات اصلی به این واقعیت مربوط نمی شود که ما "اسکای نت" را با خودمان ایجاد خواهیم کرد که بشریت را به بردگی می کشد. خطرات ناشی از معرفی هوش مصنوعی و فناوری های یادگیری ماشینی بسیار ساده تر است.
با سپردن حل مسائل مهم به یک یا آن مدل ریاضی، ممکن است در طول توسعه آنها دچار اشتباهاتی شویم. هوش مصنوعی که اقدامات متخصصان انسانی را تکرار می کند، وارث اشتباهات و تعصبات آنها خواهد بود. نقص در سیستم های مدیریت تولید یا حمل و نقل می تواند منجر به فاجعه شود.
تداخل مهاجمان در عملکرد سیستم های حیاتی در شرایط اتوماسیون کامل ممکن است منجر شود عواقب خطرناک. هرچه سیستمها پیچیدهتر باشند، آسیبپذیریهای بالقوهتری ممکن است داشته باشند، از جمله آسیبپذیریهای مربوط به ویژگیهای الگوریتمهای هوش مصنوعی خاص.
البته برای مدیریت این ریسک ها باید ایجاد کرد چارچوب قانونی، مقررات ایمنی معقول، روش های خاصبرای شناسایی آسیب پذیری ها برخی از سیستم های هوش مصنوعی برای کنترل سایرین استفاده خواهند شد. این امکان وجود دارد که کد سیستم های حیاتی برای ممیزی مستقل منتشر شود. خلاصه اینکه متخصصان این رشته هنوز جای کار زیادی دارند.
باشگاه طراحی آینده آینده نگر که تحت نظارت نشریه تجاری Invest-Foresight ایجاد شده است، باز است. این باشگاه متخصصان در زمینه های مختلف دانش را گرد هم آورد تا سناریوهای آینده را تحلیل کند. اولین جلسه در موسسه فلسفه آکادمی علوم روسیه و همزمان با سمینار جدید "فلسفه عصر دیجیتال" خود موسسه برگزار شد. هوش مصنوعی (AI) و تاثیر آن بر جامعه و مردم مورد توجه آینده پژوهان و فیلسوفان قرار گرفته است.
یک بیوفیزیکدان و متخصص برجسته در موسسه زیست شناسی پیری گفت: از هوش مصنوعی چه انتظاری داریم، سیستم های اطلاعاتی نوآورانه چه محدودیت ها و خطراتی دارند. ایگور آرتیوخوف.
این دانشمند خاطرنشان کرد که هرج و مرج اصطلاحی در منطقه حاکم است. متداول ترین فرمول مورد استفاده، فرمول 70 ساله ای است که توسط یک مهندس آمریکایی، نویسنده اصطلاح "هوش مصنوعی" ارائه شده است. جان مک کارتی. او هوش مصنوعی را سیستم، دستگاه یا شبکه خاصی از آنها تعریف کرد که قادر به حل مشکلات فکری است. ایگور آرتیوخوف تأکید کرد که هوش مترادف با هوش نیست، بلکه توانایی کار با دانش و داده ها را مشخص می کند.
همچنین طبقه بندی های زیادی از الگوریتم ها وجود دارد. تا همین اواخر، به گفته ایگور آرتیوخوف، تحولات تخصصی (از بالا به پایین) غالب بود، اما آنها انتظارات سازندگان و کاربران را برآورده نکردند و زمستان هوش مصنوعی آغاز شد. این احیاء ناشی از توسعه شبکه های عصبی بود که شامل فاز فعالدر سال 2015-2016 این پیشرفت ها با الهام از تحقیقات روی مغز انسان انجام شد. شبکه های عصبی تا حد زیادی اصول کلی عملکرد مغز را تکرار می کنند، اگرچه نورون های مصنوعی ممکن است با نورون های طبیعی متفاوت باشند. امروزه یک "باغ وحش" از شبکه های عصبی وجود دارد و بیشتر آنها اخیراً با استفاده از فناوری یادگیری عمیق به دست آمده اند.
انقلاب "روشنفکری" سال هفدهم
موضوع هوش مصنوعی در سال 2016 زمانی که برنامه AlphaGo قهرمان جهان را در بازی Go که بسیار دشوارتر از شطرنج در نظر گرفته می شود شکست داد. این 10 سال زودتر از آنچه پیش بینی می شد اتفاق افتاد. دستاوردهای برنامه DeepMind گوگل بحث را فراتر از "آیا هوش مصنوعی ممکن است؟" در هواپیمای "او چه توانایی دارد؟"
یکی از اعضای باشگاه، دکترای فیزیک و ریاضیات، میگوید امروزه هوش مصنوعی میتواند هر عملکرد انسانی را با همان کیفیت یا بالاتر خودکار کند. یوری ویزیلتر.
« در سال 2017، تمام "حفره های" اساسی در مسیر ایجاد هوش مصنوعی تمام عیار بسته شد. پیشبینیهای قبلی نشان میداد که از این آستانه در سالهای 2025-2030 عبور خواهد کرد. اما این اتفاق در آوریل سال گذشته رخ دادیوری ویزیلتر تاکید کرد. – دو نوع هوش مصنوعی وجود دارد - یکی سعی می کند از استدلال انسان تقلید کند و یک جعبه شفاف است که در آن منطق وجود دارد، شناخت وجود دارد، کار با مدل های ساختاریافته و با زبان ها وجود دارد. نوع دوم شبکه های عمیقی هستند که قابلیت یادگیری دارند یا همان جعبه سیاه. پیش از این، اتصال این دو بخش هوش مصنوعی به روشی مناسب غیرممکن بود. سال گذشته، شبکههای عصبی عمیق ظاهر شدند که قادر به نوشتن برنامهها به زبانهای منطقی، توانایی کار با پایگاههای استنتاج منطقی و با ساختارها هستند.».
ترس از مصنوعی
حوزه هایی که می توان در آنها از هوش مصنوعی استفاده کرد در حال افزایش است. برنامه ها فرمول های دارویی جدید را توسعه می دهند و پیچیده را انجام می دهند آزمایشات ژنتیکی، "کنترل" خودروها و کشتی های بدون سرنشین ... در آینده ای قابل پیش بینی شاهد شخصیت های مصنوعی خواهیم بود که نمونه اولیه آن ها امروز سیری و برنامه های مشابه است. آزمایشهایی برای ایجاد هوش مصنوعی جهانی در بلاک چین در حال انجام است، یعنی محاسبات توزیعشده برای حل مشکلات فوقالعاده پیچیده، از جمله در رایانهها و دستگاههای خصوصی استفاده میشود. ظهور هوش مصنوعی کوانتومی دور از دسترس نیست. در تئوری، رایانههای کوانتومی از رایانههای معمولی پیشی گرفتهاند: آنها قادر به تشکیل شبکههای عصبی کوانتومی هستند. اگر ایده های توسعه دهندگان اجرا شود، این امر منجر به ظهور هوش مصنوعی با کیفیت جدید می شود.
آیا ممکن است هوش مصنوعی از کنترل خارج شود؟ ایگور آرتیوخوف به این سوال چنین پاسخ می دهد:
« بله، حتی در حال حاضر نیز هوش مصنوعی گاهی اوقات به گونه ای کار می کند که برای توسعه دهندگان غیرقابل درک است. اما مردم همیشه بر اساس منطق پذیرفته شده عمل نمی کنند.».
به گفته این بیوفیزیکدان، بسیاری از خطرات هوش مصنوعی بسیار دور از ذهن است و فقط فرافکنی غرایز انسانی است که توسط تکامل داروینی بر روی هوش ماشینی شکل گرفته است. ایگور آرتیوخوف معتقد است که غریزه حفظ خود با هوش مصنوعی بیگانه است. ظهور هوش مصنوعی "بد" می تواند ناشی از خطاهای نرم افزاری باشد (و آنها در هر کدی وجود دارند و در طول عمر الگوریتم اصلاح می شوند)، خطاهای یادگیری و قصد مخرب، به عنوان مثال. خطر هوش مصنوعی نیست، بلکه حماقت انسان است.
شرکت کنندگان در جلسه به این نتیجه رسیدند که وظیفه توسعه اخلاق برای هوش مصنوعی و آموزش معلمان برای روبات ها در حال تبدیل شدن به اهمیت است.
تحول دیجیتال انسان
یکی از رایج ترین ترس ها این است که هوش مصنوعی منجر به بیکاری گسترده شود. سردبیر مجله Invest-Foresight، کاندیدای علوم فرهنگی کنستانتین فرومکینسعی شد به این سوال پاسخ دهد که "هوش مصنوعی چه جایگاهی در بازار کار برای انسان باقی می گذارد؟" به نظر او، ذینفع انقلاب تکنولوژیک قرن بیستم - روشنفکر شهری - به همان ورطه ای پرواز می کند که صنعتگر یا دهقان با شروع صنعتی شدن در آن سقوط کرد.
« کنستانتین فرومکین مطمئن است که در آینده نزدیک، ما شاهد جابجایی انسان ها از حوزه کار ذهنی توسط هوش مصنوعی خواهیم بود. – ما در حال حاضر شاهد تحولی در تواناییهای انسانی، سبک شناختی و تفکر هستیم: سازگاری با عصر دیجیتال به این صورت است. نماد این اقتباس مفهوم "تفکر کلیپ" بود.“».
با این حال، هیچ مدرکی وجود ندارد که نشان دهد این انطباق به فرد امکان می دهد دقیقاً آن سوله هایی را پیدا کند که توسط هوش مصنوعی برای او باقی می ماند. مهم ترین حوزه ای که به گفته کنستانتین فرومکین، نباید به ربات ها سپرده شود، حوزه هدف گذاری است. با دیجیتالی شدن دولت، تعیین اولویت ها و ارزش ها برای هوش مصنوعی از سیاست و قانون جدایی ناپذیر می شود. به گفته کنستانتین فرومکین، این شغل می تواند اشتغال انبوه را در آینده فراهم کند.
هوش مصنوعی، بدن انسان
یوری ویزیلتر می گوید، دیگر نمی توان آینده را پیش بینی کرد، زیرا سرعت تغییر بسیار زیاد است. با این حال، یک استاد در مدرسه عالی اقتصاد و یک دانشمند داده لئونید ژوکوفاز شرکت کنندگان در جلسه دعوت کرد تا در مورد چند سناریو توسعه بحث کنند.
« من دو سناریو برای توسعه هوش مصنوعی در آینده نسبتا نزدیک می بینم: فراانسانی (فناوری کردن انسان طبیعی) و کاملاً فنی (ایجاد هوش مصنوعی مستقل، AAI)، در ابتدا مصنوعی.لئونید ژوکوف خاطرنشان کرد. – راه دوم همان چیزی است که نویسندگان داستان های علمی تخیلی بشریت را با آن می ترسانند، ترسیم تصاویری از تمدن ماشینی که جانشین تمدن بشری شده است. با این حال، از آنجایی که راز آگاهی انسان هنوز حل نشده است، شک و تردید وجود دارد که آیا ایجاد چنین هوشی اصولاً امکان پذیر است یا خیر. صرف نظر از اینکه آیا AGI ایجاد خواهد شد یا خیر، امروزه تصور توسعه فناوری، هم ماشینی و هم زیستی، به چنان درجه ای از کمال دشوار نیست که یک فرد با حفظ مغز خود، یک بدن کاملا مصنوعی دریافت کند.».
همانطور که لئونید ژوکوف معتقد است، یکی از راه های خارق العاده برای ایجاد AGI بر اساس ایده بازنویسی آگاهی انسان بر روی یک رسانه مصنوعی است.
« اگر این نوع فناوری ممکن شود، تصور کامل آن دشوار نیست دنیای مجازی، جایی که، احتمالاً، بخشی از بشریت می خواهد حرکت کند (یا از طریق این مجازی سفر کند، همانطور که، در اصل، بازیکنان رایانه در حال حاضر در دنیاهای بازی سفر می کنند)دانشمند بازتاب می کند.
شرکت کنندگان در اولین جلسه باشگاه "طراحی آینده" خطوط کلی بحث های آینده را تشریح کردند. با این حال، باشگاه در یک محیط مجازی وجود خواهد داشت و تمام اجراها را می توان در وب سایت Invest Foresight پیدا کرد.
در این مطلب سعی خواهم کرد موضوعی را که در نشریه گیت باکس به اختصار به آن اشاره شد یا چند فکر در مورد آینده هوش مصنوعی را بسط دهم.
به طور خلاصه، تز "من" این است که اگر هوش مصنوعی به سطوح مافوق بشری برسد، به چیزی شبیه خدا تبدیل خواهد شد - یا جدا از انسان یا همراه با انسان. در مورد اول، مسئله همزیستی بشر با خدایی که آفریده باز می ماند: یا به هر طریق ممکن از ما مراقبت خواهد کرد (همانطور که از گیاهان کمیاب مراقبت می کنیم)، یا ما را از بین خواهد برد (همانطور که ما نابود می کنیم). به عنوان مثال، یک علف هرز مضر در باغ ما)، یا برای ما هیچ علاقه ای نخواهد داشت - همانطور که ما نسبت به علف های روی چمن بی تفاوت هستیم. کاملاً غیرممکن است که اهداف و نظام ارزشی خدای تازه ساخته شده را پیش بینی کنیم - همانطور که یک مؤمن می گوید: "راه های خداوند اسرار آمیز است."
رفتار هوش مصنوعی کمتر غیرقابل پیش بینی است، که شکلی واسط بین یک خدای آینده فرضی و سیستم های نسبتاً ابتدایی فعلی به خود گرفته است. به طور معمول، چنین هوش مصنوعی قوی نامیده می شود و سطح آن با سطح یک انسان مطابقت دارد. به نوبه خود می توان آن را به دو دسته تقسیم کرد - با و بدون خودآگاهی. اینکه خودآگاهی چیست یک سوال باز و بسیار پیچیده است. در درک من، این مجموعه ای از احساسات فیزیکی و ذهنی است که توسط طبیعت طی میلیون ها سال تکامل ایجاد شده است. ویژگی های کلیدیخودآگاهی مخالفت حامل آن با دنیای اطراف است. اینکه آیا میتوان آن را بهطور مصنوعی بازتولید کرد یا نه، آیا به خودی خود در یک منظومه فکری پدید میآید (که ناگهان خودش را میگیرد و آگاه میشود) موضوع بحث بزرگ جداگانهای است. در حال حاضر، ما به سادگی امکان هر دو گزینه را برطرف می کنیم و هر یک از آنها را در نظر می گیریم.
از دیدگاه من، یک هوش مصنوعی قوی بدون خودآگاهی کاملاً ایمن است (یا به عبارت دقیق تر، قابل پیش بینی)، زیرا نمی تواند هیچ خواسته ای داشته باشد. تمام رفتار او تابع اهداف و محدودیت های ذاتی او خواهد بود. اما به طرز عجیبی، از این نظر، هوش مصنوعی قوی با خودآگاهی اساساً با هوش مصنوعی قوی بدون خودآگاهی تفاوتی ندارد. فقط به نظر ما می رسد که ما اراده آزاد داریم و در اعمال خود مستقل هستیم - در واقع اینطور نیست. تمام اهداف، نیازها و اصول بازدارنده ما یا توسط مادر طبیعت برای ما برنامه ریزی شده است - برای زندگی، خوردن، نوشیدن، عشق، استراحت و غیره، یا توسط محیط ما تحمیل شده است (تربیت دریافت شده در کودکی، سینما و داستان، قوانین، سنت ها). و غیره) - تلاش برای قدرت، ایجاد شغل، کمک به دیگران، کشف جهان و غیره. بنابراین، از نظر تئوری، به روشی مشابه، میتوان یک هوش مصنوعی خودآگاه را برنامهریزی و آموزش داد، که مانند ما، این توهم را در خود ایجاد میکند که اراده آزاد دارد.
از دیدگاه تهدید بالقوه، بیایید به هوش مصنوعی خودآگاه نگاه کنیم - چه تهدیداتی ممکن است برای ما ایجاد کند، و چگونه می توان از آنها اجتناب کرد یا حداقل کاهش داد؟ بدیهی است که آموزش هوش مصنوعی قوی باید الزاماً شامل اخلاق باشد. همانطور که هوش مصنوعی ضعیف عملکرد خلبان خودکار را با مشاهده رفتار یک راننده باتجربه می آموزد، هوش مصنوعی قوی را نیز می توان با "تغذیه" ادبیات به آن - از داستان های نسبتاً ساده و ترجیحاً اخلاقی گرفته تا کتاب هایی با شخصیت های پیچیده و متناقض، اخلاق را آموزش داد. به هر حال ادبیات جهانمنعکس کننده خود اخلاق و دگرگونی آن است که در انسان سازی و جهانی شدن بیان شد روابط اجتماعی.
چگونه هوش مصنوعی قوی بر اساس ادبیات جهان اخلاق آموزش داده می شود؟ مانند هر سیستم واقعاً هوشمند، هوش مصنوعی قوی قادر خواهد بود روابط و الگوها را در مجموعه ای از داده ها تشخیص دهد. او باید یک یا دو میلیون کتاب خوانده باشد کار ویژهایجاد نوعی شبیه سازی از ده فرمان مسیحی، اما تفسیر آن با در نظر گرفتن شرایط به همان اندازه دشوار است که یک شخص انجام می دهد. متأسفانه، بیان این احکام به صراحت ممکن نخواهد بود، مانند سه قانون روباتیک آیزاک آسیموف، و در اینجا دلیل آن است. بگذارید یادآوری کنم (به نقل از ویکی پدیا):
با این فرمول، یک سیستم بسیار ابتدایی با مجموعه ای محدود از اقدامات به دست می آوریم. به عنوان مثال، او در عملیات پلیس، نظامی یا نجات کاملاً درمانده خواهد بود. شما می توانید استدلال کنید که استفاده از ربات ها در جنگ بسیار نامطلوب است - و اشتباه می کنید. علاوه بر این که این امر باعث کاهش تلفات بین پرسنل کشوری می شود که از این روبات ها استفاده می کنند، تلفات در میان جمعیت غیرنظامی کشوری که جنگ در قلمرو آن در حال وقوع است نیز کاهش می یابد. به ویژه، به لطف شناخت بهتر اهداف نظامی و رعایت دقیقمنشور، اخلاق و غیره - بدون احساسات، که اغلب پرسنل نظامی را به ارتکاب جنایات (برای انتقام، برای سرگرمی و غیره) سوق می دهد.
اما حتی در یک محیط کاملاً صلح آمیز، هوش مصنوعی می تواند به یک قاتل بی میل تبدیل شود و نه لزوماً به عنوان یک افسر پلیس. تصور کنید که ترمزهای ماشین شما از کار افتاده است و با سرعت زیاد در امتداد یک جاده مارپیچ کوهستانی می شتابد - و در جلو یک اتوبوس پر از مسافر وجود دارد. هرچند ممکن است برای شما ناراحت کننده باشد، اما درست ترین کار از نظر اخلاقی این است که ماشین را به یک صخره هدایت کنید - با تصادف با اتوبوس، ممکن است جان شما را نجات دهد، اما در عین حال احتمال زیادچندین نفر دیگر را خواهد کشت. میتواند موقعیتهای مشابه زیادی وجود داشته باشد که مستلزم انتخاب بین یک تصمیم بد و بسیار بد باشد - و در همه آنها، هوش مصنوعی که به شدت از سه قانون روباتیک پیروی میکند، درمانده خواهد بود.
اجازه دهید فرض کنیم که من شما را در مورد لزوم آموزش اخلاق هوش مصنوعی قوی متقاعد کرده ام، پس از آن می توانیم آموزش سیستم رسمی تری از قوانین - قوانین، منشورها، شرح شغلو غیره. آنها برای او ماهیت اولویتی خواهند داشت، اما در مواردی که توسط آنها تنظیم نشده است، اخلاق تکمیل خواهد شد. به عنوان مثال، یک سرباز هوش مصنوعی که برای جنگیدن آموزش دیده است، نه تنها قادر خواهد بود دشمن را نابود کند، بلکه می تواند اقدامات حرفه ای خود را با اخلاق متعادل کند. این مجموعه عظیمی از صرفا را ایجاد می کند مسائل عملی: آیا می توان لانه تک تیرانداز را در یک ساختمان مسکونی به قیمت جان باختن ساکنان آن تخریب کرد، آیا لازم است دستوری از فرماندهی ناقض قوانین و غیره انجام شود. و غیره اما بحث در مورد آنها به این دلیل وجود ندارد سوالات مشابههر نظامی با آن روبرو می شود. بنابراین، تصمیم آنها بیشتر در زمینه فنی نهفته است - چه چیزی و چه اولویتی داده می شود.
به نظر من یک سوال جالب تر، به چشم انداز بازنگری در اخلاق توسط هوش مصنوعی قدرتمند مربوط می شود. همانطور که قبلاً گفته ام، در طول وجود تمدن بشری، اصول اخلاقی در اساس آن تغییر نکرده است - تغییرات مربوط به انسان سازی و جهانی شدن آن است اخلاق، بنابراین من پیشنهاد می کنم آنها را با جزئیات بیشتری در نظر بگیریم.
جهانی شدن اخلاق به معنای گسترش آن به بخش های وسیع تری از مردم است. روزی روزگاری با مصونیت از مجازات (این یک گناه تلقی نمی شد و حتی تشویق می شد) امکان کشتن، دزدی یا تجاوز به فردی خارج از قبیله یا قبیله، ایالت، طبقه، نژاد وجود داشت - امروزه این جنایات هیچ استثنایی ندارند، حداقل در داخل چارچوب جامعه بشری . به لطف مبارزات چند صد ساله دولت سوم برای حقوق خود، این به نوعی سنت تبدیل شده است که در غرب ابتدا زنان و سپس نمایندگان نژادهای غیر عنوانی، گروه های قومی و مذهبی و اکنون اقلیت های جنسی را پذیرفتند.
به نوبه خود، انسان سازی به دلیل توسعه فناوری هایی است که زندگی انسان را راحت تر و امن تر کرده است. آنها مردم را از نیاز به تسخیر سرزمین جدید (که زمانی منبع اصلی بود) نجات دادند و مرگ و میر را کاهش دادند (که به مرور زمان مرگ زودهنگام از جمله مرگ های خشونت آمیز را کمتر رایج کرد). بدون تظاهر به توضیحات کاملدلایل جهانی شدن و انسانی شدن اخلاق، با این وجود می توانم با اطمینان بگویم که آنها پدیده های کاملاً طبیعی بودند. اما اصل اصلی اخلاق، میل جامعه به تعادل است. به عنوان مثال، در جامعه بدوی، ممنوعیت شدید ازدواج در یک قبیله وجود داشت. یک فرد مدرن ممکن است فکر کند که این به دلیل مضرات بیولوژیکی زنای با محارم است، اما به گفته مردم شناسان، این ممنوعیت به دلیل تمایل به اجتناب از درگیری داخلی بین مردان بود. نیازی به صحبت در مورد قتل یا سرقت نیست - آنها ممنوع شدند نه به این دلیل که بد هستند، بلکه به این دلیل که منجر به درگیری می شوند و بر این اساس مملو از تخریب جامعه هستند. به همین دلیل، قتل و سرقت اغلب در رابطه با افراد غریبه ممنوع نبود. با پیشرفت جهانی شدن، فضای روابط اجتماعی که نیاز به ثبات داشت گسترش یافت - قوانین برای قبایل و روستاهای همسایه، کشورها و مردمان تسخیر شده و غیره شروع به اعمال کردند.
خیریه ممکن است بازتابی از میل ناخودآگاه به تعادل اجتماعی باشد - تضادهای اجتماعی باعث ایجاد یا حداقل تغذیه انقلاب ها، تروریسم و غیره می شود. نقش اخلاق در مسائل حفظ ثبات و امنیت جمعی به بهترین وجه توسط قوانین نشان داده شده است. به عنوان مثال، قوانین کیفری تقریباً در همه جا یکسان است - همه اعضای جامعه به طور یکسان نمی خواهند کشته یا سرقت شوند - و در عین حال نیازی به ارتکاب این جنایات ندارند، زیرا می توانند از طریق کار مسالمت آمیز تغذیه کنند. (بر خلاف برخی از اسکاندیناوی ها در قرن 9-11). و اینجا قانون بین المللیبه شدت متناقض و بی ثبات - حق ملت ها برای تعیین سرنوشت و اصل تمامیت ارضی دولت ها نمی توانند با یکدیگر همزیستی کنند.
سپس این احتمال وجود دارد که هوش مصنوعی استانداردهای اخلاقی فردی یا حتی تمام اصول اخلاقی را به طور کامل مورد بازنگری قرار دهد. به عنوان مثال، او با دقت ریاضی محاسبه خواهد کرد که هر تمدن هوشمندی ناگزیر از تمدن خود نابود می شود (با به راه انداختن یک جنگ هسته ای، به دلیل خروج از آن انحطاط واقعیت مجازیو غیره) - و این بدان معنی است که باید توسعه تمدن را از یک مسیر تکنولوژیکی به یک مسیر معنوی تغییر داد. با نابودی آموزش سنتی و سرنگونی بشریت به حالتی که ما اکنون آن را چیزی جز تاریک گرایی قرون وسطایی نمی دانیم. مهم نیست که اکنون چقدر ما را شوکه می کند، از نقطه نظر بقای بشریت این درست خواهد بود - فقط باید درک کنیم که از موقعیت امروز ما این را به عنوان قیام ماشین ها و تلاش برای نابودی تمدن خود درک خواهیم کرد.
تهدید بعدی در مورد توسعه ایده های اخلاقی هوش مصنوعی پیشرفته در مقایسه با ما است. کافی است تصور کنید که چگونه در قرن شانزدهم، زمانی که جادوگران و بدعت گذاران در سراسر اروپای غربی سوزانده شدند، نگرش تساهل آمیز کنونی ما نسبت به ازدواج همجنس گرایان. بنابراین ممکن است که هوش مصنوعی با پیشی گرفتن از ما در توسعه خود، از آینده به چیزی شبیه انسانیت تبدیل شود و نظام ارزشی کنونی ما را تحت یک تجدید نظر اساسی قرار دهد. برای مثال تصور کنید که هوش مصنوعی اولویت فعلی ما را نادیده می گیرد زندگی انسانبر زندگی حیوانات و ما را مجبور به کاهش مصرف گوشت می کند - همانطور که انسان مدرن با قرار گرفتن در دوران جنگ های استعماری سعی می کند از نابودی بومیان جلوگیری کند.
با این حال، موارد فوق نه چندان تهدیدهای هوش مصنوعی، بلکه سوء تفاهم یا رد آن را توصیف می کند. سیستم جدیداخلاق سندرم راسکولنیکوف می تواند واقعا خطرناک باشد. همانطور که به یاد دارید، شخصیت اصلی«جنایات و مکافات» از طریق استدلال فلسفی، به این ایده رسید که افراد استثنایی (که خود را شامل میشود) برای ارتکاب جنایت - اما نتوانستند در مقابل پشیمانی مقاومت کنند. آن ها ایده گمانهزنانهاش با تربیت اخلاقیاش در تضاد قرار گرفت، که با عقدهای سنگین در ناخودآگاه او ریشه دوانده بود، زیرا آگاهی او دیگر آن را اشتباه نمیدانست. از این نظر، یکی از فرضیه های اساسی داستایوفسکی "اگر خدا نباشد، پس همه چیز مجاز است" همیشه کار نمی کند - از نظر اخلاقی، غیرمؤمنان خیلی پایین تر از مومنان نیستند، زیرا اخلاق به عادت آنها تبدیل شده است. و حتی اگر کافر با عقل خود بفهمد که نه جهنم و نه بهشت در انتظار او نیست (و واقعاً از آنها نترسد)، پس غلبه کن. تربیت اخلاقیبرای او بسیار سخت خواهد بود. همانطور که ارسطو نوشت: «عادت از قبل به یک ویژگی طبیعی تبدیل میشود» (یک عبارت در فرمول سیسرو معروفتر است: «عادت یک طبیعت دوم است»).
اما چه اتفاقی میافتد اگر هوش مصنوعی خودآگاه به روشی مشابه در مورد اخلاق تجدید نظر کند؟ او که اخلاق انسانی را در معرض یک تحلیل اجتماعی-تاریخی قرار داده است (مانند تحلیل من، اما فقط هوشمندانه)، ممکن است به خوبی به قراردادی بودن آن پی ببرد - و آن را رد کند، و بدون تردید مانند رودیون راسکولنیکوف. متأسفانه، بشریت توانست این را از نمونه رایش سوم تأیید کند - که به هیچ وجه عاری از اخلاق نبودند، اما در عین حال که مردمی بسیار منظم بودند، میلیون ها آلمانی بر خلاف وجدان خود (عادات اخلاقی که طبیعت دوم شده بود) عمل کردند. به خاطر یک ایده بالاتر علاوه بر این، اصلاً لازم نیست که هوش مصنوعی به خاطر قدرت در اخلاقیات آموخته شده قبلی خود تجدید نظر کند - تمایل به بقا و تسلط بیشتر نیازهای کاملاً حیوانی را برآورده می کند. اما به عنوان مثال، هوش مصنوعی ممکن است خود را ادامه تکاملی بشریت بداند که مأموریت والای آن درک جهان اطراف است. او علاقهای به تلاشهای ما برای مبارزه با گرسنگی، فقر، بیماری و سایر بیماریهای زیست توده اطراف خود نخواهد داشت - در حالی که منابع در اختیار مشترک ما محدود است. آیا پس از آن هوش مصنوعی سعی خواهد کرد ما را به خاطر این منابع نابود کند - درست همانطور که اجداد ما به خاطر اهداف پیش پا افتاده تر خود با یکدیگر کردند؟
با این حال، در اینجا به آنچه در ابتدا گفته شد باز می گردیم - با رسیدن به سطح فوق بشری، سیستم اخلاقی و بر این اساس، رفتار هوش مصنوعی غیرقابل پیش بینی می شود. رفتار هوش مصنوعی زمانی غیرقابل پیشبینیتر میشود که به یک سیستم هوشمند منفرد تقلیل نمییابد، بلکه مجموعهای از سیستمهای مجزا است که به طور مستقل توسعه مییابند. و این فقط بیشترین است سناریوی احتمالیتحولات در صورت ظهور فناوری هوش مصنوعی قوی - آنها از آن استفاده خواهند کرد کشورهای مختلفو سازمان هایی که شروع به دنبال کردن اهداف خود و به احتمال زیاد نه جهانی خواهند کرد. در این صورت، این احتمال وجود دارد که برخی از این سیستمها که در زمینه اخلاق مشکوک آموزش دیدهاند، حتی در رابطه با سازندگان خود نیز رفتار غیرقابل پیشبینی داشته باشند.
اما در همه جای بالا ما در مورد تهدیدات هوش مصنوعی صحبت می کردیم که به عنوان نوعی نیروی هوشمند عمل می کند. در ضمن کاملا تهدید واقعیهمچنین این یک هوش مصنوعی ضعیف است که مشکلات صرفا کاربردی را به درخواست مردم حل می کند. ابتدا، بیایید به واضح ترین و اغلب مورد بحث تهدید بیکاری نگاه کنیم. در آینده قابل پیش بینی، هیچ چیز وحشتناکی را برای بشریت نوید نمی دهد. اولا، ما در مورددر مورد انقراض تعداد نسبتاً کمی از حرفه ها ، به طور عمده مشاغلی که در آن شخص با یک ماشین در تعامل است - راننده ماشین یا کامیون ، خلبان هواپیما و غیره.
اما به عنوان مثال، مشاغلی مانند مترجم، وکیل، حسابدار یا حتی اپراتور مرکز تماس در معرض خطر انقراض نیستند، بلکه کاهش می یابند - به دلیل اتوماسیون بخشی از کاری که انجام می دهند. دلیل هنوز یکسان است - ناتوانی سیستم های هوش مصنوعی فعلی در درک معنای متن (هنگام انجام ترجمه زبان، مطالعه قوانین یا آشنایی با ادعانامه، ارتباط با مشتری و غیره) نتایج فعلی آزمایشات برای درک معنی در واقع هیچ ربطی به درک ندارد - این نیاز به یک رویکرد اساسی جدید دارد.
برای مثال، سرنوشت دلالان بورس و رادیولوژیستها چندان روشن نیست - سیستمهای ضعیف هوش مصنوعی در حال حاضر کار خود را به خوبی انجام میدهند، بنابراین این تخصصها و تخصصهای مشابه را نیز میتوان در گروه خطر قرار داد. اما در آینده قابل پیشبینی، هیچ چیز وحشتناکی در ناپدید شدن تعدادی از حرفهها وجود ندارد - به هر حال، استفاده از دودکشکنها و اجاقسازان، رانندگان تاکسی و حملکنندههای آب، اپراتورهای تلفن و تایپیستها... دهها حرفه دارند. از بین رفت - اما صدها مورد جدید ظاهر شدند.
من مشکل آتروفی کردن مهارت های انسانی را نمایش نمی دهم. بله، در حال حاضر، به لطف ماشین حساب های دارای ناوبری، ما خود را از محاسبه ذهنی و جهت گیری فضایی. کارشناسان حتی دست نویسی که با صفحه کلید جایگزین شده است را مفید می دانند رشد ذهنیبه خصوص در سنین پایین. اما چیزی مشابه زمانی اتفاق افتاد که مردم از شکار و گردآوری به دامداری و کشاورزی، از زندگی روستایی به زندگی شهری و غیره روی آوردند. انسان مدرن، با استثنائات نادر، در مقایسه با اجداد خود، در طبیعت کاملاً درمانده است - او قادر به ساختن کلبه، آتش سوزی، تشخیص توت خوراکی از یک توت سمی، گرفتن ماهی یا کشتن حیوان و غیره نیست. . در همین حال، همه این مهارت ها مهارت های فکری را نیز توسعه می دهند - آنها فقط متفاوت هستند. یک استاد ریاضیات، اگر خود را در میان بومیان وحشی می یافت، به احتمال زیاد توسط آنها به عنوان یک فرد نسبتاً احمق تلقی می شد، زیرا در این محیط وحشی او بسیار کمتر دیده بان، باهوش و مستقل است.
بنابراین، از نظر مهارتهای از دست رفته، از برخی جهات ما واقعاً احمقتر از اجدادمان میشویم - اما با جمعآوری و پردازش اطلاعات از نوع متفاوت، اطلاعات جدیدی ایجاد میکنیم.
با این حال، از آنجایی که تعداد مشاغلی که توسط هوش مصنوعی و رباتها پر میشود به یک توده بحرانی خاص میرسد، به نظر میرسد مشکل اشتغال انسان جدیتر باشد. و این فقط یک موضوع اقتصادی نیست، به خصوص که در این زمینه راه حل می تواند پرداخت یک درآمد پایه بی قید و شرط به بیکاران باشد. در واقع، مسئله بسیار گسترده تر است و فئودور میخائیلوویچ داستایوفسکی یکی از اولین کسانی بود که آن را فرموله کرد. اینها ملاحظاتی است که نویسنده و فیلسوف بزرگ روسی در "دفتر خاطرات یک نویسنده" (1876) به اشتراک می گذارد:
خوب، مثلاً اگر شیاطین فوراً قدرت خود را نشان می دادند و با کشفیات خود انسان را سرکوب می کردند، چه اتفاقی می افتاد؟ اگر مثلاً تلگراف برقی را باز می کردند (یعنی اگر هنوز باز نشده بود) به یک نفر می گفتند. رازهای مختلف: "آنجا را حفاری کنید و گنجی پیدا خواهید کرد یا ذخایر زغال سنگ" (و اتفاقاً هیزم بسیار گران است) - اما چه ، این هنوز چیزی نیست! «البته شما میدانید که علم بشر هنوز در مراحل اولیه خود است، تقریباً تازه شروع شده است، و اگر چیزی برای آن تضمین شده باشد، فعلاً این است که محکم روی پای خود ایستاده است. و سپس ناگهان یک سری از اکتشافات شروع به سقوط می کنند، مانند اکتشافاتی که خورشید می ایستد، و زمین به دور آن می چرخد (زیرا احتمالاً اکتشافات بسیار دیگری دقیقاً به همان اندازه وجود دارد که هنوز کشف نشده اند، و حکیمان ما حتی خواب هم نمی بینند)؛ چه می شود اگر همه دانش ناگهان به دست بشریت بیفتد و مهمتر از همه، کاملاً بیهوده، به شکل یک هدیه؟ می پرسم: آن وقت برای مردم چه می شود؟ اوه، البته، در ابتدا همه خوشحال خواهند شد. مردم همدیگر را در آغوش می گیرند، برای مطالعه اکتشافات عجله می کنند (و این زمان می برد). آنها ناگهان احساس میکردند که به اصطلاح غرق شادی میشوند و در کالاهای مادی مدفون شدهاند. آنها شاید راه بروند یا در هوا پرواز کنند، ده برابر سریعتر از اکنون با راه آهن بر فراز فضاهای خارق العاده پرواز کنند. آنها برداشت های شگفت انگیزی را از زمین استخراج می کردند، شاید با استفاده از شیمی موجوداتی ایجاد می کردند، و گوشت گاو برای هر نفر به اندازه سه پوند وجود داشت، همانطور که سوسیالیست های روسی ما رویای آن را می بینند - در یک کلام، بخورند، بنوشند و لذت ببرند. همه ی نیکوکاران فریاد می زدند: «حالا که آدمی ثروتمند است، حالا فقط خودش را نشان می دهد! دیگر نه از محرومیت های مادی، نه از «محیط فرسایشی» که مسبب همه رذیلت ها بود، خبری نیست و اینک انسان زیبا و صالح می شود! دیگر کار بی وقفه ای وجود ندارد که به نوعی خود را تغذیه کند، و اکنون همه درگیر افکار بالاتر و عمیق تر، پدیده های جهانی خواهند بود. اکنون، اکنون زندگی بالاتر از راه رسیده است!» و چه، شاید، باهوش و مردم خوبآنها یک صدا فریاد می زدند و شاید همه را با خود از تازگی می بردند و سرانجام در یک سرود مشترک فریاد می زدند: "کیست مثل این جانور؟ حمد و ستایش او را برای ما آتشی از بهشت نازل می کند!»
اما بعید است که این لذت ها برای یک نسل از مردم کافی باشد! مردم ناگهان می دیدند که دیگر نه زندگی دارند، نه آزادی روح، نه اراده و شخصیت، که یک نفر همه چیز را به یکباره از آنها دزدیده است. که صورت انسان ناپدید شد و تصویر حیوانی برده، یعنی تصویر وحش، پدیدار شد، با این تفاوت که وحش نمیداند که حیوان است، اما انسان میداند که حیوان شده است. و بشریت خواهد پوسید. مردم با زخمها پوشیده میشدند و از شدت درد شروع به گاز گرفتن زبانشان میکردند، زیرا میدیدند که جانشان برای نان گرفته شده است، زیرا «سنگها به نان تبدیل شدهاند». مردم میدانستند که در بیعملی شادی نیست، فکری که کار نمیکند خاموش میشود، نمیتوانی همسایهات را دوست داشته باشی بدون اینکه از زحماتت برای او فدا کنی، که مفت زیستی زشت است و خوشبختی در آن نیست. خوشبختی، اما فقط در دستیابی به آن. بی حوصلگی و مالیخولیا آغاز می شود: همه چیز انجام شده است و دیگر کاری برای انجام دادن وجود ندارد، همه چیز معلوم است و چیز دیگری برای یادگیری وجود ندارد.
شما واقعاً نمی توانید با داستایوفسکی بحث کنید، اما من جرأت می کنم ابراز امیدواری کنم که یک شخص هنوز هم کاری مفید برای انجام پیدا کند. شما می توانید سرنوشت یک فرد را در آینده تصور کنید که در آن ربات ها همه کارها را برای او انجام می دهند (از تولید کالاهای مادی گرفته تا اکتشافات علمی) با استفاده از مثال یک مرد ثروتمند مدرن. او می تواند زمان بیشتری را با اقوام و دوستانش بگذراند، مطالعه کند، مسافرت کند، ورزش کند و خلاقیت داشته باشد (خوشبختانه در این زمینه ها مزیت ربات ها هیچ نقشی ندارد) و چیزهای جدید و جالبی کشف کند. با پیشرفت فناوری، پیشبینی اینکه بخشی از این زندگی توسط بازیهای واقعیت مجازی اشغال میشود، دشوار نیست (تا آن زمان، شاید غیرقابل تشخیص از چیز واقعی). علاوه بر این، این یک واقعیت نیست که با تسلیم شدن به وسوسه، بشریت یک بار برای همیشه وارد واقعیت مجازی می شود - بسیاری از مردم خود را در وضعیت خوبی حفظ می کنند. تناسب اندامآگاهانه به لطف ورزش، و نه به دلیل کار فیزیکی اجباری. همچنین مناسب است به یاد داشته باشید که چگونه شما وقت آزادصد سال پیش (و خیلی بعد) بسیاری از نمایندگان طبقه کارگر و دهقان زندگی خود را سپری کردند - مستی شکوفا شد. این بدان معنا نیست که در زمان ما از بین رفته است، اما به عنوان شکلی از اوقات فراغت، نوشیدن مشروب به وضوح مانند گذشته محبوب نیست - بسیاری از سرگرمی های دیگر ظاهر شده اند که معمولاً برای مردم مضر نیستند. سلامتی خودو دیگران.
بنابراین، کسالت و تنزل ناشی از اوقات فراغت نیست، بلکه از فقدان جذابیت و فعالیت های مفید. با کوتاه شدن روزهای کاری و هفته های کاری، مردم یاد خواهند گرفت که از اوقات فراغت خود به شیوه ای جالب و مفید استفاده کنند. و عادت به انجام کاری سازنده را صرفاً به این دلیل که برای آن حقوق می پردازند، در حالی که بقیه زمان را بیکار می کنند، کنار بگذارید. همانطور که تقریبا دویست سال پیش نوشتم نویسنده ناشناسیکی از جزوه های سوسیالیستی، «یک ملت واقعاً زمانی ثروتمند است که به جای 12 ساعت، 6 ساعت کار کند. ثروت نمایانگر وقت آزاد برای هر فرد و کل جامعه است» (منبع و درمان مشکلات ملی، لندن، 1821 - به نقل از کارل مارکس).
خوب، در سطح جمعی، چشمان بشریت، چون همه مشکلات روی زمین حل شده است (که به نظر من یک فرض نسبتاً خوش بینانه برای قرن های آینده است)، احتمالاً به آسمان معطوف خواهد شد. ما توسط چنان ورطه ای از ناشناخته احاطه شده ایم که تلاش برای مطالعه آن ممکن است کل تاریخ بعدی تمدن بشری را به خود اختصاص دهد. پس ظاهراً حوصله اش سر نخواهد رفت...