2084: что случится, когда искусственный интеллект встречает старший брат
Чему история может научить нас о будущем ИИ
Смотреть Сейчас
Профессор математики Оксфордского университета, удвоение как философ науки и религии, Джон Леннокс имеет некоторые довольно уникальные идеи выдвигать, когда речь идет о будущем искусственного интеллекта.
Название его новой книги, амбициозно названный 2084: искусственный интеллект и будущее человечества, безусловно, говорит о пост-оруэлловский видение антиутопии, в комплекте с алгоритмической старший брат и целая армия биоинженерных супер-людей. И подобные прогнозы уже были сделаны другими влиятельными учеными, тоже. Юваль Ной Харари, в своем бестселлере Хомо Деус, например, предполагает, что технический прогресс приведет к повышению себя людей с такими же способностями как вечная жизнь.
Искусственный Интеллект
- Почему люди не умнее? Сомнительные преимущества интеллекта, настоящие или искусственные
- АИ есть большая проблема данных. Вот как это исправить
- Что такое ИИ? Все, что нужно знать об искусственном интеллекте
- Лучшие роботы телеприсутствия в 2020 году: двойная робототехники, встреча с совами, и многое другое
- Повышение роботизировать процесс с Ай (китайский Ютуб)
- Что означает эта татуировка? АИ приложение декодирует экстремистские политические символы (эволюционирующих)
- Искусственный интеллект: шпаргалка (издания TechRepublic)
Но далеко не изображая экс-махина-ля сценарий, в котором наши творения ИИ хотели захватить весь мир и коренным образом изменить человеческую природу, Леннокс предупреждает, что опасность все еще неминуема.
«Если создать искусственный интеллект, который превосходит человека и произойдет, конечно, это будет опасным,» Леннокс сообщает сайт ZDNet. «Но есть серьезные опасности задолго до этого, и эти опасности на самом деле происходит сейчас. Я думаю, что это заблуждение, чтобы рассказать людям о проблемах, которые придут в будущем – это то, что происходит сейчас, что требует этических и моральных ответ.»
См.: управление Ма и МЛ на предприятии 2020 (бесплатный PDF)
Леннокс отделяет области ИИ на две категории: общие и узкие. Он описывает общие искусственного интеллекта как попытка улучшить человека с помощью дополнений, лекарства, био-инженерии и, в конечном счете, освободить нас от наших биологических тел, загрузив наше сознание на вечно долговечные кремниевые чипы.
Узкий искусственный интеллект-это менее гламурно и более реально, по словам Леннокса. Это технология, которая уже существует в наших смартфонах, или программу, которая ведет автономных транспортных средств, и код, который оптимизирует склада комплектовщик роботы от Amazon. «Это вовсе не разум», — говорит Леннокс. «Это просто компьютер делает то, что он запрограммирован делать».
И еще, Леннокс гораздо больше боится узких ИИ, чем он генерала АИ. Или, скорее, он боится чьих руках узкой инструменты ИИ может попасть. Он цитирует в своей книге К. С. Льюиса 1943 романа «Человек отменяется»: «то, что мы называем властью человека над природой оказывается властью одних людей над другими при помощи природы».
Другими словами, это не ИИ себе, что будет причиной неприятностей, и апокалиптические захват человека как вида интеллектуальных роботов-это не просто еще. Непосредственный повод для беспокойства, однако, связано с тем, как технологии могут быть использованы, а иногда и уже. «ИИ-это не аморально», — говорит Леннокс, «это аморально. Это то, что вы делаете с ним, что может быть моральным, аморальным или, в некоторых случаях, нейтральный».
Леннокс берет часто приводимый пример технологией распознавания лица, и в частности, как инструмент используется в провинции Синьцзян в Китае, который является домом для десяти миллионов уйгуров людей, которые являются преимущественно мусульманскими. Недавно было обнаружено, что китайское правительство выстукивать признания лица, чтобы осуществить обширные наблюдения населения, в том числе ворота-как сканирование системы, которая фиксирует биометрические изображения, а также смартфон отпечатков пальцев – с целью отслеживания уйгурской общины движений.
Пальцы могут в равной степени быть отмечено в США и Европе, где в последние годы был напичкан конфиденциальности скандалы и примеры техник утечка персональных данных третьим лицам без согласия пользователя – другая форма наблюдения, которая требует столько внимания, — говорит Леннокс.
Конечно, он хорошо известен среди экспертов и политиков, что ИИ, даже если он находится на ранней стадии, нуждается в регулировании. Но Леннокс сомневаются в том, что правильный контекст находится в месте, чтобы сделать так. Цитируя заявление Владимира Путина о том, что тот, кто контролирует ИИ «станет властелином мира», Леннокс говорит, что силовые структуры в места не жалуют ответственное использование технологии.
«Безусловно, концентрация силовых центров, которые мы видим развивающимся в мире на данный момент свидетельствуют о том, что было бы, если ИИ попадет в руки мирового правительства», — говорит Леннокс.
Гонку, чтобы доминировать над AI-это, конечно, на. Китай уже объявил, что AI является национальным приоритетом, в то время как Россия наращивает научные исследования в технополисе Эра для развертывания искусственного интеллекта в военной сфере. США, со своей стороны, завершила первый год своей американской инициативе искусственного интеллекта, с целью укрепления руководства страны в области.
Если большой блок питания были сделать огромные успехи в AI, это приведет к АИ-переплетаются исполнение пророчества Джорджа Оруэлла, спустя 1000 лет? «Название моей книги, конечно, предназначены, чтобы отразить Оруэлла 1984 году, и она отражает его дистопированных характер», — говорит Леннокс.
Но, несмотря на все потенциальные опасности, что технология может представлять, ученый не верит в призвание проекта ИИ все. «Как ученый, это было бы абсурдно», — говорит Леннокс, ссылаясь на огромную пользу, что алгоритмы принесли в таких областях, как здравоохранение или производство. «Мы должны отказаться от электричества, потому что иногда это может быть опасно? Такое отношение просто не работает», — добавляет он.
Путь вперед, по мнению ученого, является привлечение международных соглашений, которые обеспечивают основы для этического использования ИИ. Некоторые работы уже выполнена, в частности, Европейской комиссией, которая недавно выпустила Белую книгу по искусственному интеллекту, призванных сделать технологию «силы добра», и тот, который не навредит граждан.
Кроме того, Департамент обороны США (DoD) опубликовал 65-страничный этические принципы, в прошлом году на военного применения ИИ, роботов-убийц держать в узде. Пентагон детали должны придерживаться таких принципов, как ответственность и надежность при развертывании технологии.
Смотри: работа на дому? Ваш босс имеет жуткий новый способ, чтобы шпионить за вами
Эти усилия являются позитивными событиями, признает Леннокс, но они по-прежнему привязаны к одной партии или нации, мировоззрения. Что происходит, когда это мировоззрение противоречит другой крупный блок питания, еще предстоит выяснить.
«Есть разные взгляды конкурирующих на рынке», — говорит Леннокс. «Многое зависит от того, какое мировоззрение оказывает наибольшее влияние в конкретный момент. Рисование линий-это хорошо, но в этике вы всегда упираемся в вопрос: кто так сказал, и почему я должен это делать?»
Если все страны имеют равный вес на международной арене, реализации этических принципов будет более реалистичным. Но это далеко не так. И если один мощный блок, чтобы вывести из этического использования ИИ, там не так много, что можно сделать, чтобы привлечь их к ответственности.
От нынешнего положения вещей, трудно предугадать, что будет дальше, — говорит Леннокс. Ученый рекомендует остановиться обеспокоены некоторые из потенциальных ИИ, а также приветствуя его положительное влияние в определенных областях.
«Но мое преобладающее впечатление, что есть очень много негативных последствий, связанных с ИИ, и что есть огромный риск, если мы зайдем слишком далеко», — говорит Леннокс. И с 2084 не так далеко, мы могли бы узнать достаточно скоро.