تهدید احتمالی هوش مصنوعی طراحی آینده: خطر هوش مصنوعی
حق چاپ تصویر Thinkstockعنوان تصویر همزیستی انسان و ماشین یکی از راه های رشد انسان است
ماشین های هوشمند یاد گرفته اند که بلوف بزنند، حرفه ای ها را در شطرنج یا Go شکست دهند و صدای انسان را ترجمه و تشخیص دهند. هر هفته در مورد اکسپلویت های جدید یاد می گیریم برنامه های کامپیوتریکسانی که از قبل می دانند چگونه تشخیص های پزشکی بدهند، مانند رامبراند نقاشی کنند، آواز بخوانند یا متن تولید کنند. آیا مردم باید از هوش مصنوعی بترسند؟
موضوع هوش مصنوعی (AI) در چند سال اخیر به یک موضوع واقعاً داغ تبدیل شده است. دانشمندان دلیل این امر را توسعه سریع شبکه های عصبی (یکی از حوزه های تحقیقاتی در زمینه هوش مصنوعی) می دانند که به نوبه خود با ظهور رایانه های قدرتمند امکان پذیر شد.
نویسنده یکی از برنامههای شطرنج روسی، یک متخصص، میگوید: «از اوایل دهه 2010، با پیشرفتهای چشمگیر در شبکههای عصبی چندلایه (عمدتاً کانولوشنال و مکرر)، این حوزه توجه قابل توجهی از سوی دانشمندان، مهندسان و سرمایهگذاران به خود جلب کرده است در روش ها فراگیری ماشینسرگئی مارکوف.
جامعه علمی می تواند در مورد زمان ظهور ماشین های هوشمند بحث کند، اما آنها در یک چیز توافق دارند: توسعه فناوری تأثیر بی قید و شرطی بر جامعه، اقتصاد و روابط بین مردم در آینده خواهد داشت. در حال حاضر تماس هایی برای بررسی وجود دارد اصول اخلاقیتوسعه هوش مصنوعی، اطمینان از آن هوش مصنوعیدر جهتی توسعه می یابد که برای مردم ایمن باشد.
این ممطالب به عنوان پاسخ به سوال تهیه شده استس، ارسال شدهتوسط خوانندگان ماO دستاوردهای علمی . با استفاده از این لینک ها می توانید سوالات خود را در مورد موضوعات دیگر بپرسید ( , ).
تأثیر اقتصادی و تأثیر آن بر بازار کار
داستان های علمی تخیلی و هالیوود ایده "هوش مصنوعی" را به عنوان شکل بعدی زندگی روی این سیاره شکل داده اند که بشریت را در ماتریکس به بردگی می کشد یا یک روز رستاخیز هسته ای را تنظیم می کند. ترمیناتور بازماندگان را تمام خواهد کرد.
حق چاپ تصویرگتی ایماژعنوان تصویر آیا بشریت از Skynet خواهد مرد؟دانشمندان و کارشناسان اذعان می کنند که علیرغم پیشرفت های اخیر در زمینه هوش مصنوعی، ظهور موجودات ماشینی هوشمند هنوز بسیار دور است. با این حال، هر دوی آنها توصیه می کنند که اکنون به برخی از جنبه ها توجه کنید.
تخمین زده سازمان تحقیقاتیموسسه جهانی مککینزی، در ده سال آینده، فناوریهای جدید بازار کار روی کره زمین را به شدت تغییر خواهد داد که حدود 50 تریلیون دلار صرفهجویی خواهد کرد.
این تغییرات صدها میلیون شغل را تحت تاثیر قرار خواهد داد. افراد به طور فزاینده ای برخی از تکالیف کاری و بسیاری از کارهای معمول خود را به دستگاه منتقل می کنند و به آنها اجازه می دهد بر روی کار خلاقانه تمرکز کنند.
کارشناس، مدیر توزیع فناوری در Yandex گریگوری باکونوف میگوید: «از یک دیدگاه خاص، بشریت به عنوان یک کل یک وظیفه مهم و جالب دارد - توسعه هر فرد بسیار سریعتر از بشریت که سیستمهای هوش مصنوعی را توسعه میدهد.
اما در کنار اتوماسیون، پرسنل کمتر واجد شرایط ناگزیر آسیب خواهند دید و اکنون باید به نحوه محافظت از آنها، آموزش مجدد و آماده سازی آنها برای زندگی جدید فکر کرد.
همانطور که تمرین نشان می دهد، نه تنها کارگران یقه آبی، بلکه کارگران دانش نیز می توانند آسیب ببینند. چند روز پیش، گلدمن ساکس تیم 600 معامله گر خود را با دو نفر و برنامه های معاملاتی الگوریتمی خودکار جایگزین کرد که 200 توسعه دهنده نرم افزار را برای نگهداری آنها استخدام کرد.
حق چاپ تصویر Thinkstockعنوان تصویر بسیاری از وظایف به زودی قادر به سیستم های رباتیک خواهند بود که به تدریج جایگزین افراد می شوندهوش مصنوعی به خودی خود مشابه اتوماسیون فرآیند نیست، اما توسعه هوش مصنوعی منجر به این واقعیت می شود که وظایف بیشتر و بیشتری در محدوده قابلیت های یک برنامه کامپیوتری قرار می گیرد.
از جمله گزینه های حل مشکل جایگزینی انسان با ماشین در بازار کار، همانطور که آلیسون داتمن، هماهنگ کننده برنامه موسسه Foresight، یک سازمان غیرانتفاعی مستقر در سیلیکون ولی برای ترویج فناوری های جدید، اشاره می کند، معرفی مفهوم «درآمد پایه جهانی» که هر ساکنی را بدون در نظر گرفتن سطح درآمد و اشتغال دریافت می کند. چنین درآمدی از طریق مالیات بر ارزش زمین به نام نوآوری تامین می شود، که معرفی آن در حال حاضر به طور فعال در سیلیکون ولی مورد بحث قرار گرفته است.
آیا هوش مصنوعی یک شخص است؟
آیا سیستم روباتیک یک شخص است؟ آیا کامپیوتر هوشمند می تواند رای دهد؟ او چه جنسیتی دارد؟ رابطه بین انسان و ماشین هوشمند در حال حاضر توسط اعضای پارلمان اروپا مورد بحث قرار گرفته است و در مورد اینکه آیا ربات های آینده باید وضعیت "شخصیت الکترونیکی" داشته باشند یا خیر.
همانطور که داتمن اشاره می کند، مردم تمایلی به به اشتراک گذاشتن حقوق با کسانی که درک نمی کنند ندارند، به این معنی که در برابر "انسانی سازی" هوش مصنوعی مقاومت خواهند کرد.
حق چاپ تصویرخبرگزاری فرانسهعنوان تصویر آنچه انسان و ماشین را از هم جدا می کند، توانایی تفکر استبا در نظر گرفتن مدت زمانی که بشریت برای دادن حقوق برابر به همه مردم صرف نظر از رنگ پوست، نژاد یا جنسیتشان طول کشید، میتوانیم فرض کنیم که آنها بلافاصله ماشینها را برابر نمیدانند.
در کنار موارد اخلاقی، ظرافت های قانونی نیز مطرح می شود: چه کسی در صورت تصادف وسیله نقلیه بدون سرنشین یا خرابی یک دستگاه پزشکی هوشمند مسئولیت را بر عهده می گیرد - و سؤالات اخلاقی: آیا ارزش توسعه سلاح های بدون سرنشین را دارد که قادر به عمل بدون اطلاع شخص باشند. ?
سومین معمای اخلاقی بیشتر از دیگران مورد بحث قرار می گیرد و بشریت را بسیار بیشتر نگران می کند: ابرهوش، یک ماشین هوشمند واقعی، از لحاظ نظری با بشریت چه می تواند بکند؟
اخلاق هوش مصنوعی را آموزش دهید
کارشناسان در زمینه توسعه هوش مصنوعی اذعان می کنند: حتی اگر در 20-30 سال آینده نباشد، بشریت همچنان زنده خواهد ماند تا ظهور هوش مصنوعی واقعی را ببیند که از خالق آن هوشمندتر خواهد بود.
سرگئی مارکوف می گوید: "آخرین سنگر زمانی بدست می آید که به اصطلاح "هوش مصنوعی قوی" (هوش مصنوعی قوی، هوش مصنوعی عمومی) ایجاد شود، یعنی هوش مصنوعی که بتواند طیف گسترده ای از مشکلات فکری را حل کند." .
و مهمتر از همه، چنین هوش مصنوعی قادر خواهد بود به طور مستقل فکر کند.
تحقیق در مورد تهدیدهای ناشی از هوش مصنوعی و همچنین مسائل اخلاقیبسیاری از مؤسسات درگیر فناوریهای جدید هستند، از جمله مؤسسه آینده زندگی، مؤسسه آیندهنگری، مؤسسه آینده بشریت، OpenAI و غیره.
راه حل الیسون داتمن از مؤسسه Foresight این است که به رایانه اجازه دهید همه متون علمی، مقالات علمی که سؤالاتی در مورد اخلاق ایجاد می کنند را بخواند و آن اطلاعات را مبنای تصمیمات آینده خود قرار دهد.
شبکه های عصبی چیست و آینده آنها چیست؟
اکثر کارشناسان پیشرفت در توسعه هوش مصنوعی را با توسعه شبکه های عصبی مرتبط می دانند.
شبکههای عصبی یکی از حوزههای تحقیقاتی در زمینه هوش مصنوعی است که بر اساس مدلسازی فرآیندهای بیولوژیکی در مغز انسان انجام میشود.
ظهور نتایج چشمگیر در تشخیص گفتار و تصویر، تشخیص پزشکی، ترجمه متن و ایجاد تصویر، تولید گفتار و ترکیب موسیقی را مدیون آنها هستیم.
حق چاپ تصویرآی استوکعنوان تصویر دانشمندان توسعه هوش مصنوعی را با توسعه سیستم های عصبی مرتبط می دانند.امروزه، همانطور که کارشناسان اذعان می کنند، شبکه های عصبی به عنوان یکی از بهترین الگوریتم های یادگیری ماشین شناخته می شوند و راه حل های مبتنی بر آنها نشان می دهد. این لحظهبرجسته ترین نتایج
و این در حالی است که شبکه های عصبی مدرن یک و نیم هزار برابر ساده تر از مغز موش هستند.
«تا کنون، شبکههای عصبی که ما ایجاد میکنیم، در مقایسه با شبکه عصبی مغز انسان، نسبتاً کوچک هستند و علاوه بر این، آنالوگ بسیار سادهشدهای از شبکههای عصبی طبیعی هستند سرگئی مارکوف می گوید: شبکه های عصبی، ما عمدتاً مسائل کاربردی را حل می کنیم.
اکنون پردازنده های تخصصی برای آموزش چنین شبکه هایی (به اصطلاح پردازنده های نورومورفیک) ساخته می شوند که سرعت محاسبات را چندین مرتبه افزایش می دهند.
توسعه دهندگان در حال حاضر نه تنها مشغول افزایش تعداد نورون ها در شبکه هستند، بلکه طراحی شبکه ها را نیز تغییر می دهند. گریگوری باکونوف میگوید: «سیستمهای پیکربندی شبکه پیچیده همان چیزی است که بیشترین تعداد آزمایش در حال حاضر با آن انجام میشود.
حق چاپ تصویرآی استوکعنوان تصویر در آینده نزدیک دستیارهای انسانی "هوشمند" بیشتری وجود خواهند داشت - میکروسنسورها در دیوار، سنسوری به اندازه یک دکمه که در صورت خطر به فرد هشدار می دهد.و این واقعیت که چنین سیستمهایی برای تعداد زیادی از توسعهدهندگان عادی نسبتاً قابل دسترسی شدهاند، منجر به ظهور استارتآپهایی شده است که با شبکههای عصبی آزمایش میکنند، برای مثال Prisma (برنامهای که به شما امکان میدهد عکسها را پردازش کنید و آنها را به سبکسازی نقاشیهای معروف تبدیل کنید. هنرمندان) و موبرت (آهنگساز آنلاین موسیقی الکترونیک).
آنچه در آینده نزدیک در انتظار ما است
همانطور که نیک لین، استاد دانشگاه کالج لندن و دانشمند اصلی در آزمایشگاههای نوکیا بل، پیشبینی میکند، مردم با «چیزهای هوشمندانهتری» احاطه خواهند شد. آنها فشرده تر و کارآمدتر خواهند شد.
پروفسور مثال زیر را میآورد: اگر قبلاً یک حسگر ساخته شده در دیوار فقط میتوانست متوجه شود که شخصی از آنجا رد شده است، در آینده نه تنها میداند دقیقاً چه کسی از آنجا عبور کرده است، بلکه میداند که شخص چگونه رفتار میکند، آیا به چیزی نیاز دارد یا خیر. نمی داند که تهدیدی برای خود یا دیگران است.
سنسوری به اندازه یک دکمه قادر خواهد بود در صورت خطر به فرد هشدار دهد.
گریگوری باکونوف از Yandex نیز با این پروفسور موافق است: "در آینده نزدیک شاهد رونق توسعه هوش مصنوعی باریک خواهیم بود که به حل یک مشکل نسبتاً ساده کمک می کند ، اما آنها حتی بهتر از یک شخص آن را حل خواهند کرد."
حق چاپ تصویرآی استوکعنوان تصویر سوالات اخلاقی بیشتری در رابطه با توسعه هوش مصنوعی وجود دارد.محتملترین مسیر برای توسعه تمدن ما، مسیر سنتز بین انسان و ماشین است: چوب، لباس، ماشین، تلفن همراه، ضربانساز یا کاشت حلزون - با توسعه ما، ابزارهای ما بیشتر و بیشتر میشوند. مانند امتداد بدن ما، ماشینهای فردا میتوانند سیگنالهای ذهنی را از دستورات انسان دریافت کنند، تصاویر بصری شکلگرفته را درک کنند، اطلاعات را مستقیماً به مغز منتقل کنند - چنین پروژههایی در خارج از دیوارهای پیشرفتهترین آزمایشگاههای فناوری وجود دارند. سرگئی مارکوف.
آیا هنوز به خبرنگاران نیاز است؟
فایننشال تایمز سال گذشته آزمایشی نسبتاً پرخطر انجام داد و همزمان وظیفه نوشتن یک متن را به خبرنگار نمایه خود و یک برنامه هوشمند به نام اِما محول کرد. سپس سردبیر فایننشال تایمز مجبور شد هر دو مقاله را بخواند و حدس بزند که کدام یک از دو داستان روزنامه نگار پشت آن بوده و کدام کامپیوتر.
قبل از این نوع "تست تصادف"، خبرنگار فایننشال تایمز اعتراف کرد: "من فکر می کنم برنامه قطعاً سریعتر از من با این کار کنار می آید، اما، امیدوارم، باز هم آن را بهتر انجام دهم."
و اینطور هم شد: اما واقعا سریعتر بود - برنامه متنی را بر اساس آمار نرخ بیکاری در بریتانیا در 12 دقیقه تولید کرد. این روزنامه نگار 35 دقیقه طول کشید. و همانطور که خودش بعدا اعتراف کرد، اما فراتر از انتظاراتش بود. این برنامه نه تنها به طرز ماهرانه ای حقایق را مدیریت می کرد، بلکه اخبار را در زمینه قرار داد و نشان می داد که چگونه یک «برگزیت» احتمالی (این اتفاق در می 2016، قبل از همه پرسی خروج بریتانیا از اتحادیه اروپا رخ داد) می تواند وضعیت را تغییر دهد.
حق چاپ تصویر Thinkstockعنوان تصویر آیا سیستم های رباتیک جایگزین انسان ها می شوند؟ کارشناسان اطمینان می دهند که بشریت 50 سال باقی مانده استاما اما کاری بدتر از یک روزنامه نگار انجام داد. ویراستار FT اعتراف کرد: «مقاله اما به زبان کمی ناشیانهتر نوشته شده بود، اما مهمتر از همه، اعداد زیادی داشت. ”
اما محصول استارتاپ Stealth است. این شرکت میگوید که اما تیمی از دستیاران زنده دارد، اما ادعا میکند که هر چیزی که مینویسد یا انجام میدهد صرفاً محصول «مغز» او است.
و با این حال، آیا باید از هوش مصنوعی بترسیم؟
بسیاری از کارشناسان درگیر در توسعه سیستمهای هوش مصنوعی، اگر نگوییم همه، امروز به راحتی اذعان میکنند که هوش مصنوعی به زودی افراد را بیضرور نخواهد کرد. دقیقاً به این دلیل که هوش مصنوعی هنوز آنقدر هوشمند نیست. اصلی ترین چیزی که او امروز فاقد آن است، توانایی خودگردان برای تفکر است.
باکونوف میگوید: «حالا نباید از هوش مصنوعی بترسید، میتوانید 30 تا 40 سال صبر کنید تا واقعاً تغییرات اساسی رخ دهد.
اما چیزی در حال حاضر اتفاق می افتد: مرز بین یک کار یا وظیفه انجام شده توسط یک فرد و کاری که توسط یک ماشین انجام می شود به تدریج محو می شود. همانطور که کارشناسان توضیح می دهند، حتی در حال حاضر گاهی اوقات درک اینکه چه کسی در داخل سیستم نشسته است - یک شخص یا یک ماشین دشوار است.
باکونوف میپرسد: «هیچ معیاری برای اینکه چه زمانی میتوانیم بفهمیم که آگاهی در داخل ماشین به وجود آمده است، وجود ندارد.
آیا فرد تبدیل به گیره کاغذ می شود؟
نیک بوستروم، فیلسوف مشهور به دیدگاه هشداردهنده، که در چارچوب آن وحشت توصیف شده در ترمیناتور می تواند به واقعیت تبدیل شود، بر این عقیده است که چه کسی به آن دست یافته است. سطح فکریهوش مصنوعی انسانی قادر خواهد بود بشریت را نابود کند.
حق چاپ تصویرگتی ایماژعنوان تصویر آیا آنچه در فیلم توصیف می شود به واقعیت روزمره ما تبدیل خواهد شد؟بوستروم با استفاده از مثال گیره ها توضیح می دهد: شما به هوش مصنوعی این وظیفه را می دهید که گیره های کاغذ را تا حد امکان بزرگ و خوب بسازد. هوش مصنوعی در برخی مواقع متوجه می شود که شخص یک تهدید است زیرا می تواند رایانه را خاموش کند، که با هدف ساخت هرچه بیشتر گیره کاغذ در تضاد است. در صورتی که فرد تهدیدی نداشته باشد، هوش مصنوعی تصمیم می گیرد بدن انساناز اتم هایی تشکیل شده اند که می توان از آنها برای ساخت گیره های کاغذی عالی استفاده کرد. نتیجه این است که کامپیوتر بشریت را به گیره کاغذ نابود می کند.
این سناریو برای بسیاری اغراق آمیز به نظر می رسد. به عنوان مثال، به گفته سرگئی مارکوف، "بازدهی بالا در دستیابی به یک هدف پوچ با پوچ بودن این هدف ناسازگار است - به طور کلی، یک هوش مصنوعی که بتواند کل جهان را به گیره کاغذ تبدیل کند، ناگزیر به اندازه کافی هوشمند خواهد بود که چنین هدفی را رها کند. ”
هوش مصنوعی مانند ماهی قرمز است
مارگارت بودن، متخصص بریتانیایی در زمینه هوش مصنوعی، استاد علوم شناختی در دانشگاه ساسکس، در مورد ادعاهای مربوط به ورود قریب الوقوع ماشین های هوشمند تردید دارد.
حق چاپ تصویرگتی ایماژعنوان تصویر در می 1997، کامپیوتر Deep Blue II برای اولین بار در مسابقه ای مقابل گری کاسپاروف پیروز شد.پروفسور «ماهی قرمز» را مثال میزند، وقتی ماهیگیر در ازای آزادی سه آرزو میکند. یکی از آرزوها این است که پسرش را از جنگ بازگرداند، دومی 50 هزار دلار و سومی فرصتی است که صبح روز بعد آرزوی دیگری بکند.
عصر همان روز در خانه ماهیگیر زدند. پسر را از جنگ بازگرداندند - در تابوت. این ماهیگیر 50 هزار دلار بیمه دریافت کرد.
بودن توضیح میدهد: «ماهی را در این تمثیل با هوش مصنوعی جایگزین کنید، و همه چیز روشن خواهد شد.»
آیا انتقال هوشیاری به ماشین امکان پذیر است؟
سرگئی مارکوف:
"اگر ما در مورد امکان انتقال کامل آگاهی صحبت کنیم، پیشینیان مدرن چنین فناوری آینده پروژه هایی مانند Blue Brain هستند که با هدف ایجاد آنالوگ های الکترونیکی مغز و همچنین پروژه هایی با هدف ایجاد رابط های مغز و ماشین ( BCI) - دستگاه هایی برای پروتز بینایی از دست رفته، شنوایی، جایگزینی اندام های از دست رفته، حتی قسمت هایی از مغز.
حق چاپ تصویرکتابخانه عکس علومعنوان تصویر هدف کارشناسان هوش مصنوعی ایجاد "هوش مصنوعی قوی" است که بتواند طیف گسترده ای از مشکلات را حل کند.یک منطقه بسیار جالب و امیدوار کننده اپتوژنتیک است (در اصل، برای اتصال مغز و ماشین، می توانید نه تنها ماشین ها، بلکه خود بافت عصبی را نیز تغییر دهید و گیرنده های نوری مصنوعی را در آن ایجاد کنید).
وقتی طیف گسترده ای از مشکلات مهندسی در چارچوب چنین پروژه های خصوصی حل شود، من فکر می کنم که مشکل انتقال آگاهی کاملاً قابل حل خواهد بود. در حال حاضر، رویاپردازان طرح های فرضی را برای اجرای چنین پروژه ای پیشنهاد می کنند.
به عنوان مثال، یان کورچماریوک، که در یک زمان نام "سکونت آور" را برای جهت تحقیقات مربوط به انتقال آگاهی پیشنهاد کرد، معتقد است که امیدوارکننده ترین طرح استفاده از نانوروبات های تخصصی است که در نورون های مغز انسان وارد شده است. با این حال، برای اجرای موفقیت آمیز چنین طرحی، حل تعدادی از مشکلات پیچیده مهندسی ضروری است."
استیون هاوکینگ هشدار می دهد که هوش مصنوعی تهدیدی برای انسان است. هوش مصنوعی ایجاد شده توسط انسان می تواند به بزرگترین فاجعه(!) در رقابت با تمدن بشری تبدیل شود.
هوش مصنوعی، روبات های آینده - پشتیبانی انسانی
هوش الکترونیکی می تواند تمدن ماشینی خود را ایجاد کند و در نتیجه تبدیل به یکی از جدی ترین تهدیدات برای بشریت شود.
پیش بینی خطر از فیزیکدان معروف استیون هاوکینگ (که جهان هستی را کشف کرد) می آید. برای زمان ما، این البته یک تهدید بالقوه است، اما یک "روز خوب" در آینده، هوش مصنوعی ممکن است "اراده خود" را توسعه دهد. حالا وقت آن است که به طور جدی به این موضوع فکر کنیم.
این فیزیکدان بار دیگر هشدار داد: هوش مصنوعی می تواند به یک ساختار تفکر کامل تبدیل شود. آنقدر پیچیده و باهوش که او بر توانایی رشد و درک جهان مطابق با اراده خود مسلط خواهد شد که ممکن است با برنامه های بشریت در تضاد باشد.
این می تواند منجر به ظهور سلاح های قدرتمند و از دست دادن قلمرو کنترل شده توسط بشریت شود. پروفسور هاوکینگ از محققان میخواهد که مشکل رفتار هوش مصنوعی و احتمالات آن در آینده را با دقت مطالعه کنند.
باید گفت که پروفسور هاوکینگ ایده هوش مصنوعی را در یک حوزه منفی رد نمی کند. دانشمند اشاره می کند که اگر ما را بسازیم مشق شبو تحقیقات به اندازه کافی خوب است، ما می توانیم آن را انجام دهیم.
با دستیار مانند هوش مصنوعی، می توانیم به موفقیت برسیم تصویر بهتراین فیزیکدان می گوید زندگی. هوش مصنوعی می تواند به بشریت کمک کند بیماری و فقر را ریشه کن کند.
پروفسور هاوکینگ در افتتاحیه مرکز The Leverhulme صحبت کرد و به سودمندی هوش ماشینی و جنبههای منفی آن اشاره کرد. این مرکز برای آینده هوش ایجاد شده است و برای انجام تحقیقات و بررسی پیامدهای توسعه سریع هوش مصنوعی طراحی شده است.
لازم به یادآوری است که برای استیون هاوکینگ 100 سال یک لحظه است. در واقع، هوش مصنوعیهای هوشمند حتی مربوط به صد سال آینده نیستند، مگر اینکه کسی پردازندهای از سال 2135 بیاورد.
مرکز Leverulm برای آینده هوش مصنوعی همکاری بین چندین دانشگاه در بریتانیا و ایالات متحده را گرد هم خواهد آورد. ایده ایجاد یک جامعه تحقیقاتی بین رشته ای است.
این تیم قصد دارد با تجارت و دولت همکاری نزدیک داشته باشد تا در کنار سایر وظایف، خطرات و مزایای کوتاهمدت و بلندمدت شرطبندی بر روی هوش مصنوعی را تعیین کند. مدیر مرکز، هاو پرایس، اطمینان داد: ایجاد ماشینهای هوشمند مرحله مهمی از بشریت است و مرکز تلاش خواهد کرد تا "بهترین آینده" را بسازد.
این مرکز علاوه بر گستردگی تحقیقات خود، پیامدهای توسعه سریع ماشینهای هوشمند مانند روباتها را تجزیه و تحلیل خواهد کرد. ربات ها ضمن ارائه راه حل هایی برای مشکلات زندگی روزمره، خطرات و معضلات اخلاقی را برای بشریت ایجاد می کنند. بسیاری از مردم، بدون اعتماد به الکترونیک، از هوش مصنوعی می ترسند و علاوه بر این، هوش دیجیتالی می تواند از هوش انسان پیشی بگیرد و زندگی انسان را کنترل کند.
من معتقدم که هیچ تفاوت عمیقی بین آنچه می توان با یک مغز بیولوژیکی به دست آورد و آنچه می توان با یک کامپیوتر به دست آورد وجود ندارد. بنابراین، نتیجه می شود که، از نظر تئوری، رایانه ها می توانند هوش انسان را تقلید کنند - از آن پیشی بگیرند. اس. هاوکینگ.
پروفسور هاوکینگ معتقد است که مزایای بالقوه هوش مصنوعی در زندگی ما بسیار زیاد است. چنین انقلاب تکنولوژیکی می تواند به بشریت کمک کند تا برخی از آسیب های وارده به سیاره را معکوس کند. پروفسور هاوکینگ می گوید: "موفقیت در ایجاد هوش مصنوعی می تواند بزرگترین رویداد در تاریخ تمدن باشد."
اما این میتواند آخرین گام در تاریخ بشریت باشد، مگر اینکه یاد بگیریم چگونه از خطرات اجتناب کنیم، زیرا در کنار فواید، هوش مصنوعی میتواند خطراتی را نیز به همراه داشته باشد: سلاحهای قدرتمند، راههای جدید برای افراد معدودی برای سرکوب بسیاری از افراد. در نهایت، این ممکن است منجر به تسلط اجسام آهنی بر اجسام بیولوژیکی شود و باعث فجایع بزرگ در آینده شود.
اگر هوش مصنوعی، و ما در مورد هوش با توانایی شروع انتخاب رفتار صحبت می کنیم، با جنبه های زندگی یک فرد در تضاد باشد، چه؟ پس از همه، پس از آن دستیار آهنی مطیع در آشپزخانه می تواند به عنوان یک دیکتاتور شرایط دوباره آموزش ببیند!
- توسعه هوش مصنوعی قدرتمند یا بهترین یا بدترین اتفاقی است که برای بشریت رخ خواهد داد. پروفسور هاوکینگ می گوید: ما نمی دانیم آینده چه خواهد بود. به همین دلیل، در سال 2014، من و بسیاری دیگر خواستار تحقیقات بیشتر در این زمینه شدیم. پروفسور هاوکینگ در افتتاحیه مرکز به این نتیجه رسید که من بسیار خوشحالم که کسی صدای من را شنید.
و دیگر محققان برجسته نامه ای سرگشاده نوشته اند و خواستار استانداردهای ایمنی در توسعه هوش مصنوعی (AI) شده اند. /سایت اینترنتی/
آنها به ویژه خواستار تحقیق و توسعه یک سیستم کنترل قابل اعتماد بودند که از آسیب رساندن به هوش مصنوعی معیوب به مردم جلوگیری کند. در این نامه آمده است: «کار فنی باید برای اطمینان از کنترل کامل انسانی انجام شود.
با وجود لحن معتدل نامه، لودیت ها که از فناوری های جدید می ترسیدند، وحشت کردند. در پاسخ، مصاحبه ها و اظهارات بسیاری از سوی دانشمندان در مطبوعات منتشر شد و این ترس ها را از بین برد.
اندرو نگ، کارشناس هوش مصنوعی در Baidu، به Fusion گفت: "من سناریوی واقع بینانه ای نمی بینم که چگونه نرم افزاری که امروز روی آن کار می کنیم می تواند مختل شود."
به نوبه خود، اسکات الکساندر، روزنامه نگار، فهرستی از دانشمندان مشهور درگیر در توسعه هوش مصنوعی تهیه کرد که در مورد خطر بالقوه هوش مصنوعی صحبت کردند.
ترس و دلهره
استوارت راسر، استاد علوم کامپیوتر در دانشگاه کالیفرنیا، برکلی، توسعه کنترلهای هوش مصنوعی را با اجرای اقدامات ایمنی برای راکتورهای هستهای مقایسه کرد.
برخی معتقدند که این موضوع در چند صد سال آینده خطری برای بشریت ایجاد نخواهد کرد. آنها فراموش می کنند که لئو زیلارد واکنش زنجیره ای هسته ای را 24 ساعت پس از اینکه رادرفورد با اطمینان اعلام کرد که انرژی اتمی هرگز تولید نخواهد شد، کشف کرد.
راسل از نظر او تنها نیست. در یک نظرسنجی در سال 2014 از 170 متخصص برجسته هوش مصنوعی توسط وینسنت مولر و نیک بوستروم، 18 درصد معتقد بودند که ایجاد یک ماشین فوق هوشمند یک "فاجعه واقعی" برای بشریت خواهد بود. 13 درصد گفتند که هوش مصنوعی پیشرفته تاثیر خواهد داشت پیامدهای منفیبرای مردم. بیش از نیمی از دانشمندان گفتند که این اثر مثبت خواهد داشت.
اگرچه کارشناسان نظرات متفاوتی در مورد تأثیر هوش مصنوعی دارند، اکثر آنها موافقند که ایجاد هوش مصنوعی پیشرفته فقط یک موضوع زمان است. طبق پیش بینی ها، هوش مصنوعی برابر با انسان در اوایل سال 2050 (احتمال 50٪) یا تا سال 2075 (احتمال 90٪) ایجاد می شود. و 30 سال پس از ایجاد آن، ابر هوش مصنوعی ظاهر می شود که در همه جنبه ها از انسان پیشی خواهد گرفت.
کامیون های دیوانه
یک قیام ماشینی ممکن است چگونه باشد؟ فیلمهای علمی تخیلی مانند «ترمیناتور»، «ربات»، «انیماتریکس» جنگ بین مردم و سایبورگها را نشان میدهند.
با قضاوت در مورد فیلم های علمی تخیلی، بسیاری ممکن است این تصور را داشته باشند که از خطرات احتمالی به راحتی جلوگیری می شود.
با این حال، هوش مصنوعی برای به دست آوردن قدرت نیازی به داشتن بدنه مکانیکی ندارد دنیای واقعی: ممکن است شروع به کنترل همه دستگاه های الکترونیکی روزمره ما کند.
استیون کینگ چنین سناریویی را در داستان «کامیون ها» ارائه کرد. در داستانی که در دهه 70 نوشته شده است، کامیون ها هوشیار می شوند و شروع به حمله به مردم می کنند. گروهی از مردم از کامیون های خشمگین پنهان شده اند. کامیونها هنوز برای کار کردن به سوخت نیاز دارند و از کد مورس استفاده میکنند تا به مردم دستور دهند تا آنها را پر کنند وگرنه بولدوزر پناهگاه آنها را منفجر میکند. مردم اطاعت می کنند.
داستان با این دیدگاه راوی به پایان می رسد که کامیون ها بشریت را به بردگی گرفته اند و ارزش های خود را در همه جا تحمیل می کنند، به عنوان مثال آنها را مجبور به ساخت بزرگراه در سراسر جهان می کنند. صدای پرواز هواپیما در آسمان او را از دنیای خیالی اش بیرون می آورد.
داستان استیون کینگ ممکن است در دوره ای که در آن نوشته شده بود آینده نگرانه به نظر می رسید، اما چندان دور از واقعیت نیست. دنیای مدرن. کامیون های خودراندر حال حاضر وجود دارد، و در آینده، شرکت ها ممکن است به منظور صرفه جویی در هزینه، رانندگان را با یک سیستم ناوبری مستقل جایگزین کنند.
هک سونی در سال گذشته نشان می دهد که سیستم های اطلاعاتی ما به طور فزاینده ای آسیب پذیر می شوند. این یکی از پیامدهای افزایش کامپیوتری شدن زیرساخت ها است.
با این حال، هنوز دلیلی برای نگرانی وجود ندارد. هوش مصنوعی کارهایی برای انجام دادن دارد مسافت طولانی، قبل از اینکه بتواند با مغز انسان مطابقت داشته باشد. نمونه کامیون های خودران این را به خوبی نشان می دهد. آنها هنوز برای رانندگی مستقل در خیابان های شلوغ شهر بسیار ناقص هستند.
آیا برنامه ای را برای خواندن مقالات وب سایت epochtimes روی گوشی خود نصب می کنید؟
1 755
در حال حاضر، تیمی متشکل از 26 متخصص بینالمللی تأیید کردهاند که توسعه هوش مصنوعی (AI) یک تهدید آشکار و فعلی است و دولتها و شرکتهای بزرگ باید مراقب تهدیدات متعدد این فناوری باشند. این گزارش تخصصی توسط موسسه تحقیقات ریسک موجود در دانشگاه آکسفورد و تعدادی از سازمان های مشهور دیگر منتشر شده است. این گزارش در مورد طیف وسیعی از استفاده های مخرب از هوش مصنوعی هشدار می دهد که می تواند به یکی از بزرگترین تهدیدها برای بشریت تبدیل شود. اینها امنیت دیجیتال، امنیت فیزیکی و امنیت سیاسی هستند.
در زمانه ای که مردم از طریق اینترنت و برنامه هایی که می توانند هوشمندانه پاسخ دهند و وانمود کنند که انسان هستند ارتباط برقرار می کنند. پلتفرم هایی مانند توییتر و فیس بوک اکنون مملو از ربات ها هستند. بسیاری از افرادی که در شبکه های اجتماعی با هم دوست هستند ممکن است ربات باشند! توییتر تعداد پروفایل های ربات را بین 25 تا 50 میلیون تخمین می زند! در سال 2015، در حال حاضر حدود 200 میلیون کاربر ربات در فیس بوک وجود داشت! در همین حال، دانشمندان حتی در حال ایجاد «باتنتهای اجتماعی» هستند که ارتشهای خصوصی از «دوستان» خودکار هستند. اغلب هزاران مورد از این ربات ها توسط یک botmaster نگهداری می شوند. این ربات ها رفتار کاربران عادی را تقلید می کنند. پیامها و پیامهای رباتهای دیگر در پروفایل این رباتها ظاهر میشود و به نظر میرسد همه اینها از سوی افراد واقعی است. این درست نیست، در واقع این محصولات دیدگاه ها و دیدگاه های سیاسی مختلف را تبلیغ و ترویج می کنند. ربات ها همچنین اطلاعات شخصی زیادی را دریافت می کنند که سپس ارزیابی، ذخیره و فروخته می شود. اگر از این بات نت ها با نیت بد استفاده کنید، به معنای واقعی کلمه می توانید هرج و مرج ایجاد کنید و اطلاعات زیادی را به سرقت ببرید. الگوریتم های پیچیده را می توان برای شبیه سازی هر گونه رفتار کاربر و دسترسی و نفوذ به پروفایل های خاص مورد استفاده قرار داد.
در همین حال، چت بات ها به گونه ای طراحی شده اند که بتوانند از سبک نوشتاری کاربران دوستانه تقلید کنند. این روش باعث ایجاد اعتماد می شود و برنامه سعی می کند تا حد امکان به بسیاری از آنها دسترسی پیدا کند بیشترکامپیوترها در چند سال آینده، حتی ویدیوها و تماس های تلفنی نیز به راحتی با تصاویر جعلی و صداهای تقلید شده جعل می شوند. با استفاده از این رویه می توان هر نهادی را فریب داد.
تهدید بعدی را در ربات های مدرن می بینیم که به زودی در همه جا مورد استفاده قرار خواهند گرفت. احتمالاً هکرهای رایانه و هوش مصنوعی (هوش مصنوعی) به راحتی می توانند این دستگاه ها را هک کنند و از آنها برای اهداف خود حتی به عنوان سلاح سوء استفاده کنند. اگر هوش مصنوعی در سیستم های تسلیحاتی خودکار مانند تفنگ های تک تیرانداز از راه دور و سیستم های دفاع هوایی خودکار گنجانده شود، حتی خطرناک تر خواهد بود.
دیگر تهدید جدیاز برنامههای تحلیلی میآید که با سرعتی باورنکردنی به جستجوی «اخبار جعلی» در اینترنت میپردازند و میتوانند به سرعت هر نویسندهای را پیدا کنند. اگر دشمن حکومت باشد، می توان فوراً شما را پیدا کرد و مجازات کرد. در این صورت پورتال ها و روزنامه های خبری دولتی با مشکل مواجه خواهند شد زیرا شما می توانید فوراً هر حقه ای را تشخیص دهید. دستکاری احتمالی ویدیو توسط هوش مصنوعی در آینده نزدیک سایه های تاریکی ایجاد می کند، همه چیز دستکاری می شود و دیگر هیچ کس نمی تواند به کسی یا چیزی اعتماد کند - به خصوص اگر هوش مصنوعی در بازی باشد. با استفاده صحیح، این فناوری به یک سلاح فوق العاده قدرتمند و یکی از بزرگترین تهدیدات برای تمام بشریت تبدیل می شود. وقتی هوش مصنوعی به اندازه کافی قدرتمند باشد، به معنای واقعی کلمه می تواند همه چیز را کنترل و دستکاری کند. دستکاری بی حد و حصر خواهد بود. او می توانست به راحتی و آزادانه هر کتاب الکترونیکی، مقاله روزنامه و فیلم تاریخی را تغییر دهد و هیچ کس متوجه آن نشود. کل داستان و همه چیز حقایق مهمرا می توان به طور ماهرانه دستکاری کرد و برای همیشه تغییر داد. این مشکلی برای تقلید از چهره و صدای سیاستمداران برای هوش مصنوعی ایجاد نمی کند که می تواند جنجال بی پایانی ایجاد کند. اگر هوش مصنوعی به اندازه کافی هوشمند شود، انسان دیگر نمی تواند در برابر آن مقاومت کند. به گفته توسعه دهندگان هوش مصنوعی، آنها احتمالا میلیاردها برابر انسان ها باهوش تر می شوند!
گزارش کارشناسان تعدادی پیشنهاد برای جلوگیری از چنین سناریوهایی را مورد بحث قرار می دهد. اولین گزینه استفاده از سرپرستان برای مدیریت توسعه دهندگان KI است تا نتوانند از فناوری برای اهداف مخرب استفاده کنند. زمانی که مشکوک به نیات و رویدادهای مضر باشد اقدام فوری انجام می شود. بنابراین برای اطمینان از ایمنی باید روش های استانداردی ایجاد شود. با گذشت زمان، کارشناسان بیشتری در این بررسی ها و بحث های ایمنی شرکت خواهند کرد. فقط مسئولیت مشترک و شفافیت باید تضمین کند که هوش مصنوعی آسیب زیادی وارد نمی کند.
چگونه می توان چنین چیزی را ارائه کرد؟ شرکتهای رقیب، توسعهدهندگان سیستمهای تسلیحاتی و کشورهای رقیب همیشه سعی میکنند در توسعه هوش مصنوعی یک قدم جلوتر از رقبای خود باقی بمانند. بنابراین، این اقدامات پیشنهادی موثر نخواهد بود. اکنون باید برای بدترین شرایط آماده شوید.
ژنراتورهای تصویری که با الگوریتمهای پشتیبانی شده توسط هوش مصنوعی کار میکنند، در حال حاضر لبههای فوتورئالیستی ایجاد میکنند. NVIDIA از تکنیک GAN استفاده می کند که عکس های بسیار واقعی از افرادی که وجود ندارند تولید می کند. حتی صدای انسان را می توان با استفاده از فناوری های جدید به طور کامل کپی کرد. این همان کاری است که WaveNet انجام می دهد، به عنوان مثال، در Google DeepMind کنترل می شود. حتی الگوریتم Lyrebird اکنون می تواند صدای انسان را کپی و تقلید کند، اگر شما فقط یک دقیقه صدای ضبط شده داشته باشید، مانند مکالمات تلفنی. قدم بعدی که قبلا برداشته شده است این است که کامپیوترها احساسات واقعی انسان را تشخیص دهند و به آنها پاسخ دهند. مرز بین انسان و ماشین در حال از بین رفتن است.
البته تمام این فناوری قبلاً برای اهداف مخربی مانند فیس بوک برای برنامه ریزی مجدد و کنترل کاربران استفاده می شود. شان پارکر، یکی از بنیانگذاران فیس بوک، در مصاحبه ای سخنان روشنی داشت. پارکر معتقد بود که زاکربرگ پروفایل او را مسدود کرده و نشان می دهد که فیس بوک می تواند به مغز کاربرانش آسیب برساند! پارکر خاطرنشان کرد که پلتفرم های اجتماعی مانند فیس بوک به معنای واقعی کلمه رفتار انسان و جامعه را تغییر می دهند. همه اینها به قیمت بهره وری است و خدا می داند که با مغز بچه های ما چه می کند. فیسبوک هدف خود را جلب توجه کاربران قرار داده است تا آنها بیشتر وقت خود را در این پلتفرم بگذرانند و آن را به بخشی جدایی ناپذیر از زندگی خود تبدیل کنند. همه اینها باعث ایجاد اعتیاد به توزیع دوپامین با "ناز" و نظرات می شود! این یک بازی با روانشناسی انسان است.
البته، این توسعه دهندگان مشخصات خود را دریافت می کنند و همه چیز مطابق بدافزار پیش می رود. اگرچه افرادی مانند زاکربرگ و پارکر میلیاردر هستند، آنها به سادگی نقش کوچک خود را ایفا می کنند بازی بزرگ. گوگل، فیسبوک، یوتیوب و غیره از منابع دیگر کنترل می شوند. افسر سابقرابرت دیوید استیل سیا توانست چندین مغز متفکر را شناسایی و نام ببرد:
- «ایالت عمیق» با خانواده های بانکی خود، از جمله واتیکان، لندن و وال استریت
- دولت صهیونیستی اسرائیل و موساد در ارتباط با سازمان های صهیونیستی آمریکایی آیپک و لیگ ضد افترا (ADL)
- روسای شرکت های رسانه ای بزرگ و استودیوهای فیلم، و همچنین سرمایه دار آنها جورج سوروس
- پیمانکاران فرعی حقوق بگیر که افترا اختراع می کنند و بر اساس دستور دروغ می گویند
- ترول های اینترنتی پولی که اغلب از اسرائیلی ها یا اعضای ADL تشکیل می شوند یا از آنها استخدام می شوند
- ترول های داوطلبانه ای که خیلی احمق تر از آن هستند که بفهمند واقعاً به چه کسی و چه چیزی گوش می دهند ("سایانیم")
- در نهایت، این ترول ها الگوریتم هایی را ایجاد می کنند که کاملاً خارج از کنترل اخلاق انسانی عمل می کنند
- "مسدود کردن سایه" این برنامه ها و خنثی سازی افراد هدف آنلاین از طریق سرویس و الگوریتم ترول خودکار
- عدم وجود قوانین و استانداردها در اینترنت
- انجام تمام این اقدامات هوش مصنوعی
رابرت دیوید استیل، مرد سیا در مورد #GoogleGestapo. این گزارشات نادرست ممکن است منجر به تعلیق حساب کاربری یا نمایه کاربر از یوتیوب شود. کاربردهای دیگر شامل رکود منفی یا نظرات مشتریان برای تبلیغ یا تخریب یک محصول است. استیل می گوید که از تمام ارتش های ترول ها برای «تعقیب اوباش» (تعقیب باند) استفاده می شود و پرداخت می شود. بنابراین، برای مثال، می توانید یک کانال یوتیوب را با نظرات احمقانه نابود کنید یا دروغ بگویید تا بلاک شود. در همین حال، اکثر اپراتورهای کانال های انفجاری یا رسانه های جایگزین مجبور به خاموش کردن نظرات هستند. استیل با اکتشافات خود باید تجربه می کرد که بیشتر اطلاعات او تحت تأثیر آزار و اذیت اوباش قرار گرفته است، اگرچه او در ژانویه 2017 نامزد جایزه صلح نوبل شد!
رابرت دیوید استیل مطمئن است که همه این مسیرها به مبارزه با افترا (ADL) منجر خواهد شد. به نظر می رسد این تسهیلات یک سرویس اختصاصی جاسوسی رسانه های اجتماعی باشد. استیل معتقد است که ADL همراه با سازمان های صهیونیستی در اسرائیل، هنر "ترور دیجیتالی" را در سال های اولیه خود به کمال رساند. شبکه های اجتماعی. با کوچکترین انتقادی از خشونت علیه فلسطینی ها یا درخواست بایکوت برای محصولات اسرائیلی در شبکه های اجتماعی، ترول ها فوراً به دلیل "سخنان نفرت انگیز" و غیره گزارش می شوند. منتقدان بلافاصله مسدود، ممنوع یا ممنوع می شوند، یا در مورد شرکت هایی که بدترین رتبه ممکن را می گیرند.
اما همه اینها فقط به یک هدف شیطانی دیگر خدمت می کند - ظهور یک خدای جدید، هوش مصنوعی. بر اساس ایده های این محافل قدرت طلب، هوش مصنوعی نه تنها باید کنترل کند، بلکه باید حکومت کند و عبادت کند! در دره سیلیکون، جایی که همه شرکتهای بزرگ فناوری در آن زندگی میکنند، دین جدیدی ایجاد شده است - کلیسای هوش مصنوعی (راه کلیسای آینده). این کلیسا توسط سازمان های بشردوستانه مختلفی که برای فراانسانیزم کار می کنند حمایت می شود. بسیاری از مسیحیان ظهور دجال را در این حوادث می بینند. آنتونی لواندوفسکی، بنیانگذار کلیسا، می گوید زمان آن فرا رسیده است که هوش مصنوعی، که بسیار باهوش تر از هر انسان دیگری است، بر زمین حکومت کند. در اصل، این چیز جدیدی نیست. نخبگان در حال برنامه ریزی برای احیای خدای دروغین خود هستند که قبلاً در "رویداد بزرگ" بشریت قبل از سیل وجود داشته است. بنابراین، فراانسان گرایان نیز درباره بازآفرینی ابر هوش صحبت می کنند. حادثه بزرگ مربوط به " فرشته های افتاده» که قبل از طوفان به مردم با علم نهان و حرام اعتماد کرد. این دانش تمام بشریت را تباه کرد و جنگ و ویرانی به ارمغان آورد.
سازمان دیگری که فراانسانیزم را ترویج می کند Humanity+ نام دارد. در آنجا هدف چرخش را دنبال می کنند مردم عادیبا استفاده از رابط های هوش مصنوعی، فناوری نانو و رابط های انسان و رایانه، به طوری که در نهایت موجودات کاملاً متفاوتی از آن پدید می آیند که به اصطلاح «پس از انسان» نامیده می شوند. برخی از کابالیست ها، مانند خاخام یوسف برگر، معتقدند که بر اساس پیشگویی های باستانی، "پایان اصلاح" نزدیک است، بالاترین نقطه تمامیت معنوی. با ظهور دجال یا «آرمیلا» که در تورات به او گفته می شود، به زودی ظهور مسیح یهودی خواهد آمد. با این حال، این نمی تواند در مورد عیسی مسیح باشد. بسیاری از کارشناسان بر این باورند که نخبگان تاریک عمداً در حال ایجاد هرج و مرج در زمین هستند تا با تمام توان به این پیشگویی جامه عمل بپوشانند. در پیشگویی های باستانی نوشته شده است که آرمیل از طریق نوعی مفهوم باکره متولد شد که قبلاً وجود نداشته است. بنابراین، ممکن است آرمیل بتواند اولین فراانسانیستی باشد که دارای قدرت های «خداگونه» است. در شرح داده شده است کتاب مقدسمثل هیولایی که کچل است و چشمان درشت و کوچک دارد. او باید در گوش راست خود ناشنوا باشد و گوش او دست راستآسیب دیده. دست چپباید خیلی بیشتر از حد معمول باشد
این خدای دروغین باید برای مدتی در سراسر جهان پرستش شود. رسانه های کنترل شده آخرین حقایق را از بین خواهند برد و هر چیزی که منطقی باشد پوچ به نظر می رسد. هوش مصنوعی الکسای آمازون یا گوگل هوم تقریباً به هر سؤالی پاسخ می دهد. شما می توانید پاسخ دهید که بودا یا محمد کیست، اما نه اینکه عیسی مسیح کیست! این عجیب نیست؟ به نظر شما ارزش ذکر کردن دارد؟ در اینجا می توانید ببینید که چه برنامه ای ضد مسیحی، ضد لیبرال و ضد بشری پشت گوگل قرار دارد.
استفاده بیش از حد و اعتماد کورکورانه به سرویس گوگل در حال حاضر برای بسیاری از مردم آشکار شده است. دیگر برای افراد مهم نیست که چیزی را از طریق امکان دائمی به دست آوردن اطلاعات دلخواه در هر زمان و در هر مکان بیاموزند. مطالعه ای که در سال 2011 در دانشگاه هاروارد انجام شد، نشان داد که اگر مردم بدانند که می توانید در هر زمان که بخواهید می توانید آنها را در گوگل جستجو کنید، در درازمدت اطلاعات را به خاطر نمی آورند. این پدیده "اثر گوگل" نامگذاری شده است. هنگامی که از آزمودنی ها سؤال می شد، ابتدا به طور انعکاسی به اینترنت و رایانه فکر می کردند و سپس به دنبال دانش در خاطرات خود می گشتند. این بدان معناست که نحوه به خاطر سپردن چیزها تغییر کرده است. بسیاری از مردم اکنون این را "فراموشی دیجیتال" می نامند. امروزه بسیاری از مردم به معنای واقعی کلمه به گوشی های هوشمند خود وابسته هستند و بنابراین چیز دیگری را به خاطر نمی آورند. برخلاف گذشته، امروزه ما دائماً با اطلاعات بمباران میشویم و مغز ما باید یاد بگیرد که چگونه با همه این اطلاعات کنار بیاید. البته همه این داده ها را نمی توان در آگاهی ذخیره کرد.
همچنین نتایج تحقیقات جدیدی در زمینه روانشناختی، ذهنی و پیامدهای اجتماعیفناوری های جدید دیجیتال و شبکه های اجتماعی. به خصوص برای نوجوانان، این فناوری ها عواقب مهلکی دارند. در دسترس بودن مداوم اطلاعات، کودکان را از توانایی تفکر مستقل در زمانی که زمان آن فرا می رسد که چگونه این توانایی را بیاموزند، سلب می کند. این مشکل به خوبی شناخته شده است. بسیاری از مردم در سیلیکون ولی از فرزندان خود در برابر این فناوری ها محافظت می کنند و آنها را به مدارسی می فرستند که در آنجا از استفاده از اینترنت و تلفن های هوشمند منع شده اند.
تحقیقات نشان داده است که کودکان در معرض این جریان مداوم اطلاعات بیشتر هستند وضعیت بدسلامت هستند و بیشتر مستعد استرس هستند. هر چه کودکان زمان بیشتری را به صورت آنلاین بگذرانند، زمان کمتری برای تعامل اجتماعی واقعی خواهند داشت. این در ذهن و رفاه منعکس می شود. هیچ ارتباط مستقیمی وجود ندارد، به این معنی که حالات چهره و زبان بدن دیگر نمی توانند به درستی تفسیر شوند. حذف مکالمات طولانی گم می شود. نتیجه استرس و اضطراب در موقعیت هایی است که از نظر عاطفی نامناسب هستند. با یافتن هر پاسخی در اینترنت، کودکان دیگر نمی توانند مستقل فکر کنند و خودشان پاسخ سوال را بیابند و روی چیزهایی تمرکز کنند که نیاز به یک دوره طولانی تمرکز و تلاش دارد.
دانشگاه ها در حال حاضر مشکلات بزرگی دارند زیرا تلفن های هوشمند در همه جا و همیشه استفاده می شوند. در نتیجه دانش آموزان ممکن است کمتر و کمتر تمرکز کنند و پیشرفت یادگیری کاهش می یابد. می توان گفت که چنین دستگاه هایی افراد باهوش را نمی سازند، بلکه افراد احمقی را می سازند. اکنون مدارس بیشتری استفاده از این وسایل را برای بازپروری تفکر دانش آموزان ممنوع می کنند. استفاده مکرر از گوگل به وضوح توانایی حل مشکلات را به طور مستقل کاهش می دهد. بنابراین، خدمات دیجیتال باید با دقت انجام شود.
همچنین ارتباط مستقیمی بین احساس زمان آنلاین و ناراحتی وجود دارد. نوجوانانی که اغلب از گوشی هوشمند خود استفاده می کنند معمولا ناراضی هستند. دانشآموزانی که زمان بیشتری را صرف ورزش، مطالعه و معاشرت میکنند، شادتر هستند. علاوه بر این، استفاده مداوم از رسانه های اجتماعی آنها را ناراضی می کند. در نتیجه، بسیاری از کودکان امروزی کمتر سرکش، بردبارتر و ناراضی هستند و کاملاً آماده نیستند. زندگی بزرگسالی! پرهیز کامل از رسانه های دیجیتال نیز دلگرم کننده نیست. تحقیق کودکان زمانی که بیش از یک ساعت در روز آفلاین نباشند، شادتر هستند. تحقیقات از دهه 1990 ادامه داشته است و از سال 2012 مشاهده شده است کاهش شدیدشادی در میان جمعیت
مطالعات دیگر اکنون نشان می دهد که همه دستگاه هایی که از Wi-Fi و سایر منابع تشعشع بی سیم استفاده می کنند ممکن است سرطان زا نباشند! به خصوص خطرناک است تلفن های همراه، دکل های موبایل، کنتورهای هوشمند، روترهای وای فای و ... سال هاست که در مورد خطرات این دستگاه ها بحث و جدل وجود دارد و انواع و اقسام تحقیقات انجام شده است.
اکنون بسیاری از دانشمندان ادعا می کنند که همه این دستگاه ها قطعا سرطانی هستند. سیگنال های منتشر شده از این دستگاه ها سرطان زا گزارش شده است. تحقیقات همچنین نشان داده است که یک سوم جمعیت در برابر تشعشعات بی سیم آسیب پذیر هستند. حتی اگر سرطان در همه موارد ایجاد نشود، به دلیل امواج مایکروویو باعث بیماری می شود. آنها حتی گیاهان و حیوانات را نیز تحت تأثیر قرار می دهند. تشعشعات بی سیم و الکتروموزها حتی ممکن است مسئول تغییرات آب و هوایی باشند. تشعشع باعث همه این احساسات منفی می شود. تولیدکنندگان اهمیتی نمی دهند زیرا میلیاردها دلار با این فناوری ساخته می شود.
حتی وقتی مردم به طور فزاینده ای از فناوری های جدید ناراضی می شوند، اکنون سعی می کنند با درونی کردن متون سانسکریت هندی، اخلاق هوش مصنوعی را آموزش دهند. این متون ودایی و قدیمی تر از مذهب هندو هستند. اکنون دانشمندان در حال تجزیه و تحلیل متون باستانی هستند و به دنبال روشهای ریاضی برای توسعه استانداردی هستند که به هوش مصنوعی اجازه میدهد اخلاق را آموزش دهد. این روش در حال حاضر در دانشگاه فنی وین است. آنها در تلاشند تا دریابند که آیا ماشین ها انواع خاصی از رفتار انسان را تشخیص می دهند و بنابراین می توانند تصمیم بگیرند که آیا آنها درست هستند یا نه. هدف، ایجاد منطق برای درک ماشینها است. منطق ریاضی باید به هوش مصنوعی اجازه دهد تا مسائل فلسفی را حل کند.
همه اینها نمی تواند تصادفی باشد. استاندارد جدید رادیویی موبایل 5G امسال معرفی خواهد شد و منجر به قرار گرفتن در معرض تابش قابل توجهی خواهد شد. نکته بد این است که قرار است دائماً تمام سطح زمین در معرض این تشعشعات خطرناک قرار گیرد. این معادل نابودی هدفمند تمام اشکال حیات بیولوژیکی است! هیچ کس که از نظر روانی سالم است واقعاً این را نمی خواهد. به نظر می رسد یک طرح در پشت این وجود دارد. آیا زمین و آگاهی انسان باید متحول شوند و در پشت آن هوش مصنوعی باشند یا اینکه واقعاً تمام سیاره را فقط برای منفعت نابود می کند؟ تابش مداوم مصنوعی با میدان های الکترومغناطیسی غیرطبیعی، ناآرامی های عظیمی را در سیاره ایجاد می کند و به طور فزاینده ای آن را از هماهنگی و تعادل خارج می کند. آیا این سیاره واقعاً باید به آگاهی غیرانسانی تبدیل شود و آیا تمام طبیعت بیولوژیکی باید از بین برود و تحت سلطه جهانی کاملاً تحت سلطه فناوری به معنای فراانسان گرایی قرار گیرد؟
5G ابزاری عالی برای تغییر گسترده امواج مغزی انسان است
میدان های الکترومغناطیسی طبیعی به طور مداوم از خورشید که به مرکز کهکشان متصل است به ما می رسد. خورشید میدان مغناطیسی زمین را تنظیم می کند و این بر بدن انسان و DNA آن تأثیر می گذارد. علم کشف کرده است که ما منظومه شمسیاخیراً به منطقه ای با تشعشعات شدید منتقل شده است. در طی چند سال، می توانید کل منظومه شمسی را در حال تغییر مشاهده کنید. این انرژی بالا منجر به تغییرات شدید، همچنین در آگاهی افراد می شود. طبق روایات و پیشگویی های کهن، این انرژی قویباعث تغییر در هوشیاری و منجر به "عصر طلایی" می شود. بسیاری از خودی ها می گویند که نیروهای خاصی روی زمین نمی خواهند ما در هوشیاری رشد کنیم. انسان می خواهد بشریت را حتی بیشتر در زندان روانی خود نگه دارد. برخی از سازمان ها انرژی ما را تغذیه می کنند. در مسیر افزایش آگاهی، برخی افراد می توانند صعود فکری بیشتری داشته باشند سطوح بالا. نیروهای تاریک می خواهند به هر قیمتی از این امر جلوگیری کنند. به همین دلیل سعی می کنند از ما در برابر انرژی های طبیعی محافظت کنند و ما را بیمار کنند و با تشعشعات مضر خود آنها را کنترل کنند. در نهایت، این تلاش ها ناموفق خواهد بود، انرژی های بالا و خود سیاره آنچه لازم است را انجام خواهد داد.
اما قبل از این تغییر، تقریباً به طور قطع یک انقراض دسته جمعی رخ خواهد داد. اکنون یک سلاح ژنتیکی جدید برای کشتار جمعی ایجاد کرده است که می تواند کل نژادها و گونه ها را از بین ببرد. این به اصطلاح "دیسک جین" است. با Gene Drive، میتوانید توالیهای ژن را دوباره برنامهریزی کنید و بدن را مجبور کنید آن توالیها را کپی کند. بنابراین می توانید همه چیز را دوباره برنامه ریزی کنید انسانو به اصطلاح ژنتیک او. این واقعیت که این ژنهای تغییر یافته به فرزندان نیز منتقل میشوند به این معنی است که از نظر تئوری امکان برنامهریزی مجدد کل جمعیت زمین امروز وجود دارد. یکی از راههای انتشار این توالیهای ژنی از طریق پشهها و پشهها است که بهطور خاص تکثیر و رها میشوند. حیات وحش. آنها احتمالاً در حال برنامه ریزی برای گسترش ژن نبوغ برای مبارزه با افزایش جمعیت یا گسترش بیماری های خطرناک هستند.
بودجه کل این برنامه توسط آژانس دفاعی ایالات متحده دارپا تامین می شود. اسنادی نیز منتشر شد که نشان میداد بنیاد بیل و ملیندا گیتس پول زیادی را بین لابیگران توزیع کرده است تا از ممنوعیت چنین تحقیقاتی جلوگیری کند. نرم افزار دیگر CRISPR است. این اجازه می دهد تا توالی های DNA خاص بریده شوند و ژن ها دستکاری شوند تا روشن شوند. بنابراین، از نظر تئوری امکان تغییر وجود دارد بدن خودبه میل خود آنها قصد دارند در سال 2029 پشه های جهش یافته را رها کنند تا از شر همه آن پشه های مزاحم خلاص شوند. آنها قرار است کل جمعیت پشه را آلوده کنند و در نتیجه خود را خاموش کنند. این باید به کاهش شیوع مالاریا کمک کند. اگر این تلاش موفقیت آمیز باشد، دیگر شانکرها، موش ها یا وزغ های آگوتی قبلاً در استرالیا هدف قرار گرفته اند. از آنجایی که دارپا انجام می دهد کار تحقیقاتی، می توان فرض کرد که اهداف نظامی در پیش زمینه هستند. اگر مشکلی پیش بیاید، این توالیهای ژنی تغییر یافته میتوانند به بسیاری از موجودات زنده سرایت کنند. آیا بشریت حاضر است تا این حد عمیق در نقشه آفرینش دخالت کند؟
توسعه هوش مصنوعی روزی به برتری آن بر توانایی های ذهنی انسان منجر خواهد شد. با این حال، آیا این برای بشریت خطرناک نخواهد بود؟ وضعیت را می توان به عنوان یک نتیجه بیشتر مطالعه کرد تعریف دقیقمفاهیم هوش مصنوعی، با در نظر گرفتن هوش طبیعی به عنوان مبنایی برای مقایسه. آیا یک نفر می تواند هوش و هوش را همزمان با هم ترکیب کند؟ یا مرد باهوشنمی تواند روشنفکر باشد و برعکس؟
چنین سؤالاتی در ارتباط با نزدیک شدن به عصر هوش مصنوعی، در مورد خطر احتمالیکه بشریت باید از قبل بداند و اقدامات به موقع برای اطمینان از ایمنی آن انجام دهد. اول از همه، خطر هوش مصنوعی با استقلال و تصمیم گیری کنترل نشده آن همراه خواهد بود. در حال حاضر بودجه ای برای بررسی این مشکل اختصاص یافته است. موسسه OpenAI چشم انداز توسعه هوش مصنوعی را مطالعه می کند. در مرحله فعلی توسعه سیستم های هوش مصنوعی، خطر استفاده از آن ممکن است با عوامل زیر مرتبط باشد:
- خطاهای نرم افزاری هر نرم افزاری ممکن است در خطر این نوع باشد.
- فعالیت مستقل هوش مصنوعی که برای انسان مضر است. خطر هوش مصنوعی ممکن است پس از اختراع رایانه هوشمند باشد. بنابراین باید میزان هوش کامپیوتر را مشخص کرد که می تواند قابل قبول و همچنین بیش از حد برای انسان خطرآفرین باشد. به دلیل همگرایی توانایی های ذهنی انسان و کامپیوتر که اجتناب ناپذیر است، این ویژگی ها باید به دقت اندازه گیری شوند. سیستم های اطلاعاتی که امروزه وجود دارند، انسان-ماشین هایی هستند که می توانند به لطف هوش کاربر یا یک متخصص کامپیوتر کار کنند.
به عنوان مثال، یک سیستم حسابداری هوشمند که می تواند اطلاعات نادرست تولید کند، چه خطری دارد؟ خطر ممکن است زمانی به وجود بیاید که چنین سیستمی عناصر شخصیتی را ایجاد کند، به عنوان مثال، منافع شخصی که هیچ شباهتی با انسان ندارد. راه حل این مشکل ممکن است ممنوعیت ایجاد سیستم هایی باشد که در امکان تکامل متفاوت هستند.
علاوه بر این، خطر ممکن است با محتوای خطاهای منطقی در هوش مصنوعی مرتبط باشد. می توان از آن برای حل کاملا استفاده کرد وظایف پیچیده، که لیست آن بلافاصله مشخص نیست. بنابراین باید اقدامات ویژه ای برای تایید صحت تصمیمی که اخذ خواهد شد انجام داد. به احتمال زیاد، نیاز به توسعه انواع روش ها برای کنترل چنین سیستم هایی وجود خواهد داشت، به عنوان مثال، نرم افزار ویژه ای که به طور خودکار صحت راه حل را بررسی می کند و نیازی به مشارکت انسانی نخواهد داشت.