Стивен Хокинг и Илон Маск против суперинтеллекта. Почему экспертов пугает ИИ?
V-kosmose.com

Стивен Хокинг и Илон Маск против суперинтеллекта. Почему экспертов пугает ИИ?

Современные люди довольствуются наличием искусственного интеллекта, вроде Siri. Некоторые приложения даже создают видимость живой беседы, и не будем забывать о том, что уже существуют разумные роботы, способные поддерживать диалог. Но как изменится наш мир с появлением суперинтеллекта? И почему многие ученые протестуют против его создания?

В перспективе искусственный интеллект и суперинтеллект кажутся весьма ценными приобретениями для человечества. По сути, мы сможем создать нечто гораздо умнее нас, а значит, подобная технология предоставит новые открытия, позволит создать уникальные двигатели и даже путешествовать между звездами.

Жизнь должна быть гораздо качественнее, ведь машина беспристрастна, неподкупна и, напоминаем, гораздо умнее нас. Тогда почему такие люди, как Стивен Хокинг и Илон Маск, с огромным опасением относятся к возможности появления ИИ в нашей жизни?

Важно напомнить, что ИИ уже существует и активно используется людьми. Это как базовые технологии, вроде упомянутой Siri, так и более мощные суперкомпьютеры, создающие симуляции и сложные модели.

Однако суперинтеллект отличается, потому что это невероятно прогрессивная технология, которая сама собою управляет. То есть, из уравнения исключаются люди. Наибольшее опасение состоит в том, что ИИ продолжит самосовершенствоваться в быстрых темпах.

В таком случае в определенный момент суперинтеллект может начать делать все, что рационально посчитает нужным. Например, это создание роботов, как в «Терминаторе». Что это значит? Ну, в продвинутом обществе, это полная автоматизация, где многие люди избавятся от необходимости выполнять тяжелую работу. Однако мы к такому еще не подготовлены, поэтому люди просто станут безработными, ведь компаниям выгодно использовать машины, которым не нужно платить.

Но это не самое плохое. Еще в 1980-х гг. начали предсказывать скорое возникновение ИИ. Полагают, что опасно продвинутая версия появится уже в середине XXI века. Что это значит для людей? Спросить стоит у новых повелителей, ведь может сложиться так, что именно суперинтеллект возьмет над нами верх.

Именно этого боялись Хокинг и Маск. Суперинтеллект сам собою управляет, подчиняется логике и может посчитать людей хаотичными и бесполезными кусками мяса, не способными управлять делами на Земле. Они могут воспринимать нас как вирус, который отравляет почву и атмосферу. Почему бы тогда не избавиться от людей?

К тому же, ИИ не нуждается в пище, поэтому может не осознавать наших потребностей. Или же мы станем чем-то вроде домашних зверьков, о которых будут заботиться. Сложно представить, как именно поступит продвинутый искусственный интеллект.

Есть несколько вариантов развития. Оптимистичный – человек продолжит управлять суперинтеллектом. Правда, у такого сценария мало сторонников, потому что ИИ в один момент выйдет из-под контроля, так как станет гораздо умнее нас.

Пессимистичный – захват мира терминаторами. Людей уничтожат, а ИИ заселит планету роботами и… ну, будет что-то здесь делать. Может, наладит связь с пришельцами? Однако некоторые все же считают, что роботы не станут уничтожать людей и захватывать мир, потому что у них нет эмоций, а, следовательно, и стремления к убийствам или власти. Но никто не отменял логику, когда можно логически прийти к выводу, что люди не нужны.

Рациональный – слияние робота и человека. Мы уже продвинулись до того, чтобы заменять части тела протезами, есть искусственные глаза и органы. В будущем ИИ и человек могут стать единым целым. Возможно, мы будем подключены к глобальной сети и полностью связаны. Для кого-то такой вариант покажется жутким сюжетом из антиутопии, а кто-то назовет это следующей ступенью эволюции.

В любом случае суперинтеллект рано или поздно появится. И нам нужно быть готовыми к последствиям, потому что негативные сценарии такие же реалистичные, как и надежды на мир, где машина и человек смогут существовать гармонично. Что думаете?

[pt_view id="0efc7ffpiy"]