2084: что случится, когда искусственный интеллект встречает старший брат

Чему история может научить нас о будущем ИИ

Смотреть Сейчас

Профессор математики Оксфордского университета, удвоение как философ науки и религии, Джон Леннокс имеет некоторые довольно уникальные идеи выдвигать, когда речь идет о будущем искусственного интеллекта.

Название его новой книги, амбициозно названный 2084: искусственный интеллект и будущее человечества, безусловно, говорит о пост-оруэлловский видение антиутопии, в комплекте с алгоритмической старший брат и целая армия биоинженерных супер-людей. И подобные прогнозы уже были сделаны другими влиятельными учеными, тоже. Юваль Ной Харари, в своем бестселлере Хомо Деус, например, предполагает, что технический прогресс приведет к повышению себя людей с такими же способностями как вечная жизнь.

Искусственный Интеллект

  • Почему люди не умнее? Сомнительные преимущества интеллекта, настоящие или искусственные
  • АИ есть большая проблема данных. Вот как это исправить
  • Что такое ИИ? Все, что нужно знать об искусственном интеллекте
  • Лучшие роботы телеприсутствия в 2020 году: двойная робототехники, встреча с совами, и многое другое
  • Повышение роботизировать процесс с Ай (китайский Ютуб)
  • Что означает эта татуировка? АИ приложение декодирует экстремистские политические символы (эволюционирующих)
  • Искусственный интеллект: шпаргалка (издания TechRepublic)

Но далеко не изображая экс-махина-ля сценарий, в котором наши творения ИИ хотели захватить весь мир и коренным образом изменить человеческую природу, Леннокс предупреждает, что опасность все еще неминуема.

«Если создать искусственный интеллект, который превосходит человека и произойдет, конечно, это будет опасным,» Леннокс сообщает сайт ZDNet. «Но есть серьезные опасности задолго до этого, и эти опасности на самом деле происходит сейчас. Я думаю, что это заблуждение, чтобы рассказать людям о проблемах, которые придут в будущем – это то, что происходит сейчас, что требует этических и моральных ответ.»

См.: управление Ма и МЛ на предприятии 2020 (бесплатный PDF)

Леннокс отделяет области ИИ на две категории: общие и узкие. Он описывает общие искусственного интеллекта как попытка улучшить человека с помощью дополнений, лекарства, био-инженерии и, в конечном счете, освободить нас от наших биологических тел, загрузив наше сознание на вечно долговечные кремниевые чипы.

Узкий искусственный интеллект-это менее гламурно и более реально, по словам Леннокса. Это технология, которая уже существует в наших смартфонах, или программу, которая ведет автономных транспортных средств, и код, который оптимизирует склада комплектовщик роботы от Amazon. «Это вовсе не разум», — говорит Леннокс. «Это просто компьютер делает то, что он запрограммирован делать».

И еще, Леннокс гораздо больше боится узких ИИ, чем он генерала АИ. Или, скорее, он боится чьих руках узкой инструменты ИИ может попасть. Он цитирует в своей книге К. С. Льюиса 1943 романа «Человек отменяется»: «то, что мы называем властью человека над природой оказывается властью одних людей над другими при помощи природы».

Другими словами, это не ИИ себе, что будет причиной неприятностей, и апокалиптические захват человека как вида интеллектуальных роботов-это не просто еще. Непосредственный повод для беспокойства, однако, связано с тем, как технологии могут быть использованы, а иногда и уже. «ИИ-это не аморально», — говорит Леннокс, «это аморально. Это то, что вы делаете с ним, что может быть моральным, аморальным или, в некоторых случаях, нейтральный».

Леннокс берет часто приводимый пример технологией распознавания лица, и в частности, как инструмент используется в провинции Синьцзян в Китае, который является домом для десяти миллионов уйгуров людей, которые являются преимущественно мусульманскими. Недавно было обнаружено, что китайское правительство выстукивать признания лица, чтобы осуществить обширные наблюдения населения, в том числе ворота-как сканирование системы, которая фиксирует биометрические изображения, а также смартфон отпечатков пальцев – с целью отслеживания уйгурской общины движений.

Пальцы могут в равной степени быть отмечено в США и Европе, где в последние годы был напичкан конфиденциальности скандалы и примеры техник утечка персональных данных третьим лицам без согласия пользователя – другая форма наблюдения, которая требует столько внимания, — говорит Леннокс.

Конечно, он хорошо известен среди экспертов и политиков, что ИИ, даже если он находится на ранней стадии, нуждается в регулировании. Но Леннокс сомневаются в том, что правильный контекст находится в месте, чтобы сделать так. Цитируя заявление Владимира Путина о том, что тот, кто контролирует ИИ «станет властелином мира», Леннокс говорит, что силовые структуры в места не жалуют ответственное использование технологии.

«Безусловно, концентрация силовых центров, которые мы видим развивающимся в мире на данный момент свидетельствуют о том, что было бы, если ИИ попадет в руки мирового правительства», — говорит Леннокс.

Гонку, чтобы доминировать над AI-это, конечно, на. Китай уже объявил, что AI является национальным приоритетом, в то время как Россия наращивает научные исследования в технополисе Эра для развертывания искусственного интеллекта в военной сфере. США, со своей стороны, завершила первый год своей американской инициативе искусственного интеллекта, с целью укрепления руководства страны в области.

Если большой блок питания были сделать огромные успехи в AI, это приведет к АИ-переплетаются исполнение пророчества Джорджа Оруэлла, спустя 1000 лет? «Название моей книги, конечно, предназначены, чтобы отразить Оруэлла 1984 году, и она отражает его дистопированных характер», — говорит Леннокс.

Но, несмотря на все потенциальные опасности, что технология может представлять, ученый не верит в призвание проекта ИИ все. «Как ученый, это было бы абсурдно», — говорит Леннокс, ссылаясь на огромную пользу, что алгоритмы принесли в таких областях, как здравоохранение или производство. «Мы должны отказаться от электричества, потому что иногда это может быть опасно? Такое отношение просто не работает», — добавляет он.

Путь вперед, по мнению ученого, является привлечение международных соглашений, которые обеспечивают основы для этического использования ИИ. Некоторые работы уже выполнена, в частности, Европейской комиссией, которая недавно выпустила Белую книгу по искусственному интеллекту, призванных сделать технологию «силы добра», и тот, который не навредит граждан.

Кроме того, Департамент обороны США (DoD) опубликовал 65-страничный этические принципы, в прошлом году на военного применения ИИ, роботов-убийц держать в узде. Пентагон детали должны придерживаться таких принципов, как ответственность и надежность при развертывании технологии.

Смотри: работа на дому? Ваш босс имеет жуткий новый способ, чтобы шпионить за вами

Эти усилия являются позитивными событиями, признает Леннокс, но они по-прежнему привязаны к одной партии или нации, мировоззрения. Что происходит, когда это мировоззрение противоречит другой крупный блок питания, еще предстоит выяснить.

«Есть разные взгляды конкурирующих на рынке», — говорит Леннокс. «Многое зависит от того, какое мировоззрение оказывает наибольшее влияние в конкретный момент. Рисование линий-это хорошо, но в этике вы всегда упираемся в вопрос: кто так сказал, и почему я должен это делать?»

Если все страны имеют равный вес на международной арене, реализации этических принципов будет более реалистичным. Но это далеко не так. И если один мощный блок, чтобы вывести из этического использования ИИ, там не так много, что можно сделать, чтобы привлечь их к ответственности.

От нынешнего положения вещей, трудно предугадать, что будет дальше, — говорит Леннокс. Ученый рекомендует остановиться обеспокоены некоторые из потенциальных ИИ, а также приветствуя его положительное влияние в определенных областях.

«Но мое преобладающее впечатление, что есть очень много негативных последствий, связанных с ИИ, и что есть огромный риск, если мы зайдем слишком далеко», — говорит Леннокс. И с 2084 не так далеко, мы могли бы узнать достаточно скоро.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *