Добро пожаловать!

Вход в аккаунт

Первый квантовый компьютер от Google - достижение или катастрофа?

Достижение всемирно известной компании Google может обернуться ужасными последствиями и глобальной катастрофой.

Автор: ritarisling

29.10.2019 Инновации
  • 0
  • 421

Первый квантовый компьютер от Google - достижение или катастрофа?

Первый квантовый компьютер, созданный компанией Google, смог решить задачу, непосильную для обычного. Хоть многие не согласны с этим открытием, у специалистов не проходят колебания в том что в недалеком будущем это приведет нас к огромному техническому прорыву. Но это так же значит то что могут появиться новые непредвиденные обстоятельства и в их числе неминуемое создание угрожающего искусственного интеллекта.


Так как же квантовые технологии можно связать с концом света?

 

Большее преимущество кванта


Ученые из Google создали квантовое устройство Sycamore, которое может вычислять со скоростью в несколько миллионов раз быстрее чем современный суперкомпьютер. Для примера, то на что у нынешнего суперкомпьютера уйдет порядка тысячи лет, Sycamore вычислит за 200 секунд. Это можно назвать квантовым превосходством, и это даёт возможность невероятно быстро решать наисложнейшие задачи, требующие учета огромного объёма данных.

Между Sycamore и и/и присутствует неиссякаемая связь. Любой ии ищет закономерность, которая и позволит определить, например, то что изображено на той или иной картинке. Но для этого Они должны провести огромное количество вычислений. И чем сложнее система, тем больше уйдет времени и ресурсов на вычисление. К примеру если начать моделирование природных систем, таких как головной мозг, ситуация ухудшится в миллиарды раз, но превосходство кванта даст возможность смоделировать не только его, но и системы которые гораздо сложнее, как например суперинтеллект

Превосходнее и «умнее» людей

Исходя из определения Ника Бострома (оксфордского философа), суперинтеллектом можно назвать разновидность ии, который «умнее» чем человек, причём во всех родах деятельности. Его разработка повлечет за собой неизбежный риск, который уже пытаются просчитать разработчики ИИ и других технологий. К примеру, сотрудники Центра по разбору и изучению Экзистенциального риска, основателем которого является Илон Маск, написали открытое письмо, которое призывает учёных сделать всё что возможно, дабы предотвратить создание того, что будет неподвластно контролю людей.

Невозможно сдержать

Даже несмотря на то что квантовые компьютеры превосходят обычные, они далеко не всесильны. Все задачи, которые может просчитать квантовый компьютер, можно решить и обычным, разница будет только в длительности решения. Ну а те задачи, которые не под силу обычному компьютеру, нерешаемы и квантовым. К этим задачам можно отнести проблему остановки: определимо ли окончание какой-либо процедуры, если есть лишь её описание и входные данные.

В 1936 году учёный Алан Тьюринг озвучил доказательство того, что невозможно решить данную задачу только с помощью алгоритмов.
В 2016 году учёные из Австралии, Испании и США пришли к выводу, что удерживание суперинтеллекта тоже является неразрешимой проблемой.
Доказали они это следующим образом: эта проблема состоит из двух задач. Одна из них называется вредоносной проблемой, или по другому функцией R(D), которая исходит из того, чтобы выяснить, принесет ли человеку вред выполнение программы R с данными D. Нужно учитывать, что решение данной проблемы так же не должно нанести вреда человеку. Значит решение можно найти только путем симулирования выполнения программы R(D), и предсказания его выполнения без влияния на мир, т.е. в изоляции. Вторая задача это проблема контролирования, эта функция запустит R(D), когда будет точно известно, что она не принесет вреда.

Можем допустить что существует некая программа, которая сначала выполняет свои определенные задачи, а после начинает вредить людям. Так как невозможно выяснить, когда окончится первое действие и окончится ли оно вообще, невозможно предсказать, несет ли программа вред. Ну а с проблемой контроля, тут нужно ограничить пересечения с программой. Но также нужно учесть, что он по определению является универсальной машиной Тьюринга (как и человек), т.е. способен на стимуляцию поведения произвольной машины Тьюринга. Исходя из этого невозможно узнать, будет ли этот интеллект вредить людям, и так же невозможно будет установить переключатель, который сможет предотвратить вред.


Оставьте комментарий