вторник, 28 апреля 2020 г.

Веле Штылвелд: Нейронатиск ИИ на человечество ХХІ века


  • Научный обозреватель: Веле Штылвелд: по материалам РуНет, УаНет, Википедии
За последнюю пару лет искусственный интеллект незаметно отряхнулся от тегов «фантастика» и «геймдизайн» и прочно прописался в ежедневных новостных лентах. Сущности под таинственным названием «нейросети» опознают людей по фотографиям, водят автомобили, играют в покер и совершают научные открытия. В нейросетях разработчики попытались скопировать устройство человеческого мозга: как известно, он состоит из множества простых клеток-нейронов, которые обмениваются друг с другом электрическими сигналами. 

Идея нейросети заключается в том, чтобы собрать сложную структуру из очень простых элементов. Вряд ли можно считать разумным один-единственный участок мозга — а вот люди обычно на удивление неплохо проходят тест на IQ.

До сих пор идею создания разума «из ничего» обычно высмеивали: шутке про тысячу обезьян с печатными машинками уже сотня лет, а при желании критику нейросетей можно найти даже у Цицерона, который ехидно предлагал до посинения подбрасывать в воздух жетоны с буквами, чтобы рано или поздно получился осмысленный текст. Однако в XXI веке оказалось, что классики ехидничали зря: именно армия обезьян с жетонами может при должном упорстве захватить мир.
Сама идея

Потобного эксперимента оказалась плодотворной. Она помогла выяснить: инасколько человек честен с себе подобными. Для этого учёные используют специальный психолого-экономический тест, название которого можно перевести как «игра Ультиматум» (Ultimatum Game). Суть этой игры в том, что один человек должен разделить между собой и другим игроком некоторый выигрыш. Разделить он может как угодно, а второй игрок может либо принять условия дележа, либо отвергнуть. И если он считает, что делёж нечестный, оба теряют всё. В среднем люди соглашаются на долю, равную 40–50%. Если же процент выигрыша опускается до 20% и ниже, человек обычно отказывается от предлагаемого. Это лишает его любого выигрыша, но зато его оскорблённая честность остаётся удовлетворённой.

Впервые в подобную игру предложили сыграть шимпанзе в 2007 году. Тогда исследователи из Института эволюционной антропологии Макса Планка (Max Planck Institute for Evolutionary Anthropology) предлагали обезьянам готовые варианты дележа изюма: 50 на 50 или 80 на 20. Далее всё проходило по классической схеме с некоторыми техническими тонкостями. Получив поднос с изюмом, первая обезьяна должна была подтолкнуть его до второй, которая находилась в соседней клетке. В случае согласия на долю животное могло подтянуть поднос к себе. В ходе эксперимента выяснилось, что шимпанзе в принципе не склонны отказываться от еды при любом её количестве. Словом, учёные заключили, что принципы честного дележа обезьянам недоступны. Исследование получило множество критических оценок. Другие исследователи говорили, что в тех условиях шимпанзе не могли понять, что они сами определяют количество получаемой награды. То есть животные имели дело не столько друг с другом, сколько с неким загадочным устройством, которое выдавало угощение.


В 2012 году похожий эксперимент с шимпанзе и бонобо поставили и учёные из колледжа Королевы Марии (Queen Mary, University of London). Результаты исследования оказались идентичными полученным немецкими специалистами. Чувство справедливости при разделе пищи снова уступило место желанию поесть. Однако после двух неудачных попыток зоологам всё равно не давал покоя вопрос о наличии честности у человекообразных обезьян. На этот раз за исследования взялись американские приматологи из Университета Эмори (США) в Йеркском национальном центре по изучению приматов (Yerkes National Primate Research Center).

Учитывая критику, учёные придумали новый вариант ультимативной игры. На сей раз обезьян учили обращаться с чем-то вроде денег: они должны были распознавать пластиковые жетоны, один из которых обозначал делёж шести бананов поровну, а второй — в пропорции 5 к 1. Всё происходило так: одна обезьяна выбирала жетон, обозначающий ту или другую пропорцию, и передавала жетон другой обезьяне. Таким образом, животное давало понять напарнику, как оно хочет разделить бананы. Напарник же брал жетон и передавал его человеку — или же не передавал, игнорируя предложение товарища по эксперименту. То есть тут не было специального устройства для распределения угощения, и можно было оценить честность обоих «партнёров».

Первой обезьяне на выбор предлагали два жетона, которые соответствовали двум вариантам дележа кусочков банана: пополам или в соотношении один к пяти. (фото Yerkes National Primate Research Center). Как пишут исследователи в журнале PNAS, шимпанзе предпочитали делать честные предложения: в 58–92% случаев первая обезьяна предлагала другой жетон, обозначающий честное распределение бананов. Однако при этом зоологи отмечают, что вторая обезьяна никогда не отказывалась и от нечестного распределения. Иными словами, какие-то зачатки честности у обезьян есть, раз они склонны делать честное предложение, но практические соображения — получить хоть сколько-нибудь пищи — всё равно перевешивают. Авторы работы полагают, что мы наблюдаем у шимпанзе некий этап эволюции чувства честности, а само чувство могло возникнуть 5–7 млн. лет назад, ещё до выделения человека в самостоятельный род, и с тех пор честность постепенно эволюционировала вместе с приматами разных групп с разной скоростью.

Разумеется, к новым результатам тут же возникли вопросы. Некоторые критики говорят, что этот вариант игры — неправильная Ultimatum Game, что в ней оценивается не столько честность того, кто получает, сколько честность того, кто предлагает. Другие учёные признают значительность полученных результатов, однако делают оговорку, что обезьяна-получатель не слишком осознаёт, сколь многое зависит от её воли. То есть наиболее оптимальным был бы такой эксперимент, в котором вторая обезьяна не полагалась бы на помощь человека, а сама принимала или отвергала предлагающиеся варианты дележа. Вот такая тебе древнейшая нейросеть в действии…

На самом деле нейросеть можно собрать даже из спичечных коробков: это просто набор нехитрых правил, по которым обрабатывается информация. «Искусственным нейроном», или перцептроном, называется не какой-то особый прибор, а всего лишь несколько арифметических действий.
Перцептро́н, или персептрон (англ. perceptron от лат. perceptio — восприятие; нем. Perzeptron) — математическая или компьютерная модель восприятия информации мозгом (кибернетическая модель мозга), предложенная Фрэнком Розенблаттом в 1957 году и впервые реализованная в виде электронной машины «Марк-1»в 1960 году. Перцептрон стал одной из первых моделей нейросетей, а «Марк-1» — первым в мире нейрокомпьютером.



Перцептрон состоит из трёх типов элементов, а именно: поступающие от датчиков сигналы передаются ассоциативным элементам, а затем реагирующим элементам. Таким образом, перцептроны позволяют создать набор «ассоциаций» между входными стимулами и необходимой реакцией на выходе. В биологическом плане это соответствует преобразованию, например, зрительной информации в физиологический ответ от двигательных нейронов. Согласно современной терминологии, перцептроны могут быть классифицированы как искусственные нейронные сети:

с одним скрытым слоем;
с пороговой передаточной функцией;
с прямым распространением сигнала.

На фоне роста популярности нейронных сетей в 1969 году вышла книга Марвина Минского и Сеймура Паперта, которая показала принципиальные ограничения перцептронов. Это привело к смещению интереса исследователей искусственного интеллекта в противоположную от нейросетей область символьных вычислений[nb 4]. Кроме того, из-за сложности математического исследования перцептронов, а также отсутствия общепринятой терминологии, возникли различные неточности и заблуждения.

Впоследствии интерес к нейросетям, и в частности, работам Розенблатта, возобновился. Так, например, сейчас стремительно развивается биокомпьютинг, который в своей теоретической основе вычислений, в том числе, базируется на нейронных сетях, а перцептрон воспроизводят на основе бактериородопсин-содержащих плёнок.


Работает перцептрон проще некуда: он получает несколько исходных чисел, умножает каждое на «ценность» этого числа (о ней чуть ниже), складывает и в зависимости от результата выдаёт 1 или –1. Например, мы фотографируем чистое поле и показываем нашему нейрону какую-нибудь точку на этой картинке — то есть посылаем ему в качестве двух сигналов случайные координаты. А затем спрашиваем:

- «Дорогой нейрон, здесь небо или земля?»
- «Минус один, — отвечает болванчик, безмятежно разглядывая кучевое облако. — Ясно же, что земля».


«Тыкать пальцем в небо» — это и есть основное занятие перцептрона. Никакой точности от него ждать не приходится: с тем же успехом можно подбросить монетку. Магия начинается на следующей стадии, которая называется машинным обучением. Мы ведь знаем правильный ответ — а значит, можем записать его в свою программу. Вот и получается, что за каждую неверную догадку перцептрон в буквальном смысле получает штраф, а за верную — премию: «ценность» входящих сигналов вырастает или уменьшается. После этого программа прогоняется уже по новой формуле. Рано или поздно нейрон неизбежно «поймёт», что земля на фотографии снизу, а небо сверху, — то есть попросту начнёт игнорировать сигнал от того канала, по которому ему передают x-координаты. Если такому умудрённому опытом роботу подсунуть другую фотографию, то линию горизонта он, может, и не найдёт, но верх с низом уже точно не перепутает. 
В реальной работе формулы немного сложнее, но принцип остаётся тем же.


Перцептрон умеет выполнять только одну задачу: 

брать числа и раскладывать по двум стопкам.

Самое интересное начинается тогда, когда таких элементов несколько, ведь входящие числа могут быть сигналами от других «кирпичиков»! Скажем, один нейрон будет пытаться отличить синие пиксели от зелёных, второй продолжит возиться с координатами, а третий попробует рассудить, у кого из этих двоих результаты ближе к истине. Если же натравить на синие пиксели сразу несколько нейронов и суммировать их результаты, то получится уже целый слой, в котором «лучшие ученики» будут получать дополнительные премии. Таким образом, достаточно развесистая сеть может перелопатить целую гору данных и учесть при этом все свои ошибки.

Перцептроны устроены не намного сложнее, чем любые другие элементы компьютера, которые обмениваются единицами и нулями. Неудивительно, что первый прибор, устроенный по принципу нейросети — Mark I Perceptron, — появился уже в 1958 году, всего через десятилетие после первых компьютеров. Как было заведено в ту эпоху, нейроны у этого громоздкого устройства состояли не из строчек кода, а из радиоламп и резисторов. Учёный Фрэнк Розенблатт смог соорудить только два слоя нейросети, а сигналы на «Марк-1» подавались с импровизированного экрана размером в целых 400 точек. Устройство довольно быстро научилось распознавать простые геометрические формы — а значит, рано или поздно подобный компьютер можно было обучить, например, чтению букв.
Розенблатт был пламенным энтузиастом своего дела: он прекрасно разбирался в нейрофизиологии и вёл в Корнеллском университете популярнейший курс лекций, на котором подробно объяснял всем желающим, как с помощью техники воспроизводить принципы работы мозга. Учёный надеялся, что уже через несколько лет перцептроны превратятся в полноценных разумных роботов: они смогут ходить, разговаривать, создавать себе подобных и даже колонизировать другие планеты. Энтузиазм Розенблатта вполне можно понять: тогда учёные ещё верили, что для создания ИИ достаточно воспроизвести на компьютере полный набор операций математической логики. Тьюринг уже предложил свой знаменитый тест, Айзек Азимов призывал задуматься о необходимости законов роботехники, а освоение Вселенной казалось делом недалёкого будущего.


Три зако́на роботехники в научной фантастике — обязательные правила поведения для роботов, впервые сформулированные Айзеком Азимовым в рассказе «Хоровод» (1942).
  • Законы гласят:
Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Трём Законам, а также возможным причинам и следствиям их нарушения, посвящён цикл рассказов Азимова о роботах. В некоторых из них, наоборот, рассматриваются непредвиденные последствия соблюдения роботами Трёх Законов (например, «Зеркальное отражение»).

В одном из рассказов цикла персонаж Азимова приходит к заключению об этической основе Трёх Законов: «…если хорошенько подумать, Три Закона роботехники совпадают с основными принципами большинства этических систем, существующих на Земле… попросту говоря, если Байерли исполняет все Законы роботехники, он — или робот, или очень воспитанный человек».

В 1986 году в романе «Роботы и Империя» (англ. Robots and Empire) Азимов предложил Нулевой Закон:
0. Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред.

Три закона роботехники — объединяющая тема для всей фантастики Азимова, включая не только цикл о роботах, но и некоторые другие произведения.

Впрочем, были среди пионеров кибернетики и неисправимые скептики, самым грозным из которых оказался бывший однокурсник Розенблатта, Марвин Минский. Этот учёный обладал не менее громкой репутацией: тот же Азимов отзывался о нём с неизменным уважением, а Стэнли Кубрик приглашал в качестве консультанта на съёмки «Космической одиссеи 2001 года». Даже по работе Кубрика видно, что на самом деле Минский ничего не имел против нейросетей: HAL 9000 состоит именно из отдельных логических узлов, которые работают в связке друг с другом. Минский и сам увлекался машинным обучением ещё в 1950-х. Просто Марвин непримиримо относился к научным ошибкам и беспочвенным надеждам: недаром именно в его честь Дуглас Адамс назвал своего андроида-пессимиста.

Сомнения скептиков того времени Минский подытожил в книге «Перцептрон» (1969), которая надолго отбила у научного сообщества интерес к нейросетям. Минский математически доказал, что у «Марка-1» есть два серьёзных изъяна. Во-первых, сеть всего с двумя слоями почти ничего не умела — а ведь это и так уже был огромный шкаф, пожирающий уйму электричества. Во-вторых, для многослойных сетей алгоритмы Розенблатта не годились: по его формуле часть сведений об ошибках сети могла потеряться, так и не дойдя до нужного слоя.

Минский не собирался сильно критиковать коллегу: он просто честно отметил сильные и слабые стороны его проекта, а сам продолжил заниматься своими разработками. Увы, в 1971 году Розенблатт погиб — исправлять ошибки перцептрона оказалось некому. «Обычные» компьютеры в 1970-х развивались семимильными шагами, поэтому после книги Минского исследователи попросту махнули рукой на искусственные нейроны и занялись более перспективными направлениями.
Развитие нейросетей остановилось на десять с лишним лет — сейчас эти годы называют «зимой искусственного интеллекта».

Зима искусственного интеллекта — период в истории исследований искусственного интеллекта, связанный с сокращением финансирования и общим снижением интереса к проблематике. Термин был введён по аналогии с термином «ядерная зима». Направление искусственного интеллекта прошло несколько циклов, сопровождавшихся повышенным ажиотажем, сменяющихся «зимами» — разочарованием, критикой и последующим сокращением финансирования, а затем возобновлением интереса несколько лет или десятилетий спустя.

Термин впервые упомянут в 1984 году на ежегодной встрече AAAI (Американской ассоциации искусственного интеллекта): на одном из обсуждений Роджер Шэнк и Марвин Мински — два ведущих исследователя в области искусственного интеллекта — предупредили бизнес-сообщество, что энтузиазм в отношении направления вышел из-под контроля, и что за ним последует разочарование, иллюстрацией послужила «первая зима» направления, пережитая в 1970-х годах. После этого обсуждения последовала цепная реакция, сопровождающаяся пессимизмом в среде исследователей, распространившаяся также в СМИ, и в конечном итоге приведшая к снижению финансирования и остановке крупных работ; три года спустя миллиардная индустрия искусственного интеллекта была фактически обрушена.

Как для всякого ажиотажа, сопутствующего перспективным технологиям, и характеризующимся последующими спадами (железнодорожная мания, пузырь доткомов), «зи́мы искусственного интеллекта» в первую очередь означали крах в восприятии лиц, принимающих решения о финансировании — правительственных чиновников, инвесторов, венчурных капиталистов, руководителей организаций.

При этом, несмотря на взлёт и падение репутации искусственного интеллекта, исследования в этой области велись непрерывно, и после спадов интерес инвесторов возобновлялся по мере очередных результатов. Так, в 2005 году Рэй Курцвейл отмечал, что «зима искусственного интеллекта» не прервала работ в этой области, и уже к середине 2000-х годов «многие тысячи приложений искусственного интеллекта глубоко встроены в инфраструктуру каждой отрасли».

Две длительные «зимы» относят к периодам 1974—1980 годов и 1987—1993 годов. Кроме того, было несколько менее значительных эпизодов, повлиявших на снижение интереса к направлению, среди таковых провал проектов по машинному переводу в 1966 году и неудача концепции коннекционизма в 1970 году. Другие периоды спада интереса:

1971—1975: разочарование DARPA исследовательской программой по распознаванию речи в Университете Карнеги — Меллона;
1973: значительное сокращение исследований по искусственному интеллекту в Великобритании в ответ на отчёт Лайтхилла;
1973—1974: сокращение расходов DARPA на академические исследования по искусственному интеллекту в целом;
1987: крах рынка лисп-машин;
1988: отмена новых расходов на искусственный интеллект в рамках стратегической инициативы в области компьютерной техники;
1993: экспертные системы медленно достигают экономического дна;
1990-е годы: проект создания компьютеров пятого поколения не достиг своих целей.
  • Ранние эпизоды:
Машинный перевод и отчет ALPAC 1966 года
Брифинг для вице-президента США Джеральда Форда в 1973 году на тему перевода с помощью модели, основанной на junction grammar

Во время «холодной войны» правительство США было особенно заинтересовано в автоматическом, мгновенном переводе русских документов и научных докладов. Начиная с 1954 года, правительство США приложило много усилий для разработки машинного перевода. Вначале исследователи были оптимистичны: новая работа Ноама Хомского по грамматике упрощала процесс перевода, и было «много предсказаний приближающегося прорыва». Однако исследователи недооценили сложность разрешения лексической многозначности. Для того чтобы перевести предложение без ошибок, машина должна была иметь представление, о чем идет речь в предложении.

Согласно мифу, фраза «the spirit is willing but the flesh is weak» (крепок дух, но немощна плоть)
при переводе на русский и потом обратно на английский превратилась в
«the vodka is good but the meat is rotten» (водка хорошая, но мясо протухло),
а «out of sight, out of mind» (с глаз долой, из сердца вон) — в «blind idiot» (слепой идиот).

Позже исследователи назовут это «проблемой здравого смысла». ( Увы, идиомический подход был в ту пору почти проигнорирован - Веле Штылвелд)

В 1964 году Национальный исследовательский совет (NRC) США забил тревогу из-за отсутствия прогресса и создал Консультативный комитет по автоматической обработке языков (англ.) (ALPAC) для изучения этой проблемы. В своем отчете 1966 года комитет пришел к выводу, что машинный перевод оказался более дорогим, менее точным и более медленным, чем человеческий перевод. Потратив около 20 миллионов долларов, NRC свернул все разработки. Карьеры были уничтожены, а исследования прекращены.

В XXI веке машинный перевод так и остается открытой проблемой, хотя и решенной с некоторым успехом (Google Translate, Yahoo Babel Fish).

Отказ от коннективизма в 1969 году. В ряде первых работ по ИИ для имитации разумного поведения применялись сети или схемы из соединенных между собой блоков. Примерами такого подхода, названного коннекционизмом, являются первое описание искусственной нейронной сети Уолтера Питтса и Уоррена Мак-Каллока, а также работа Марвина Минского по системе SNARC . В конце 1950-х годов большинство этих подходов были отброшены, когда исследователи начали исследовать символьные рассуждения (symbolic reasnoning) в качестве основы интеллекта после успеха таких программ, как Logic Theorist (англ.) и General Problem Solver.

Однако работа в одном из направлений коннекционизма продолжалась — изучение перцептрона, предложенного Фрэнком Розенблаттом, которому удавалось поддерживать исследования в этой области благодаря своим способностям «продавца» и силы своей личности. Он оптимистично прогнозировал, что перцептрон «со временем сможет учиться, принимать решения и переводить языки». Основные исследования перцептронов резко прекратились в 1969 году после публикации Марвином Минским и Сеймуром Пейпертом книги «Перцептроны», которая обозначила пределы возможностей перцептронов.

Коннективизм был забыт на несколько последующих десятилетий. Хотя важная работа в этом направлении частично продолжалась, например, был предложен метод обратного распространения ошибки, однако найти достаточное финансирование для проектов коннекционистов в 1970-х и начале 1980-х годов было трудно. «Зима» исследований коннекционистов прекратилась в середине 1980-х годов, когда работы Джона Хопфилда, Дэвида Румельхарта и других возродили масштабный интерес к нейронным сетям. Розенблатт не дождался этого, он погиб в результате несчастного случая вскоре после публикации книги «Перцептроны».

Неудачи 1974 года. Отчет Лайтхилла: в 1973 году британский парламент поручил профессору сэру Джеймсу Лайтхиллу оценить состояние исследований искусственного интеллекта в Великобритании. Его отчет, известный как отчет Лайтхилла, раскритиковал полную неспособность ИИ достичь своих «грандиозных целей». Он пришел к выводу, что все то, что может делать ИИ, может быть сделано также другими науками. Он особенно выделил проблемы «комбинаторного взрыва» и «трудноразрешимости», которые показывали, что большинство самых успешных алгоритмов ИИ годятся лишь для решения «игрушечных» задач, а на реальных практических задачах они не работают. Отчет был оспорен в дебатах, которые транслировались на канале BBC в программе «Controversy» в 1973 году. В дебатах «Универсальный робот — это мираж» Лайтхилл, представлявший Королевский Институт, дискутировал против команды из Дональда Мичи , Джона Маккарти и Ричарда Грегори. Позже Маккарти писал, что «проблема комбинаторного взрыва была признана в ИИ с самого начала». Отчет Лайтхилла привел к прекращению большинства исследований в сфере ИИ в Великобритании. Исследования продолжалось лишь в нескольких университетах второго эшелона (Эдинбург, Эссекс и Сассекс). Джеймс Хендлер (англ.) пишет:

«Это создало эффект волны, который привел к сокращению финансирования разработок ИИ по всей Европе».

Крупномасштабные исследования возобновились только в 1983 году, когда британский проект Элви (англ.), созданный в ответ на японский проект компьютеров пятого поколения, начал финансировать в ИИ из военного бюджета в размере 350 миллионов фунтов стерлингов. Элви имел ряд требований, которые касались только Великобритании, что не подходило международным партнерам, особенно американским, и стало причиной прекращения финансирования второго этапа.

Сокращение финансирования DARPA в начале 1970-х гг.:  в течение 1960-х годов Агентство передовых оборонных исследовательских проектов (тогда известное как «ARPA», теперь «DARPA») выделило миллионы долларов на исследования искусственного интеллекта практически без каких-либо условий. Директор DARPA в те годы, Джозеф Ликлайдер верил в «финансирование людей, а не проектов» и позволял лидерам отрасли ИИ (таким как Марвин Минский, Джон Маккарти, Герберт А. Саймон и Аллен Ньюэлл) тратить их почти на любые цели.

Ситуация переменилась после принятия поправки Мэнсфилда в 1969 году, которая требовала от DARPA финансирования «целевых исследований, а не общих ненаправленных исследований» Ненаправленные общие исследования характерные 1960-м перестали финансироваться DARPA, теперь исследователи должны были показать, что их работа вскоре принесет пользу в виде новых военных технологий. Отныне предложения исследователей искусственного интеллекта рассматривались по очень строгим стандартам. Ситуация еще больше осложнилась после выхода отчета Лайтхилла и собственного исследования DARPA (American Study Group), которые показали, что большинство исследований искусственного интеллекта вряд ли принесут хоть какую-либо пользу в обозримом будущем. В итоге деньги DARPA были направлены на проекты с более четкими целями, такие как автономные танки и системы управления боем. К 1974 году было трудно найти финансирование для проектов искусственного интеллекта.

Исследователь ИИ Ханс Моравек обвинил в кризисе нереалистичные прогнозы своих коллег: «Многие исследователи оказались в паутине все большего преувеличения. Первые обещания, данные им DARPA, были слишком оптимистичными. Конечно, то, что они разрабатывали в результате, значительно отличалось от обещаний. Но они считали, что в следующий раз не смогут пообещать меньше, чем в первый, поэтому обещали еще больше». В результате сотрудники DARPA потеряли терпение к исследованиям ИИ, как утверждает Моравек. Моравек сообщил Дэниелу Кревьеру (англ.), что:

«в DARPA буквально сказали: некоторых из этих людей следует проучить, сократив их контракты на два миллиона долларов в год почти до нуля!».

Хотя проект автономного танка провалился, система управления боем (Dynamic Analysis and Replanning Tool, DART) оказалась чрезвычайно успешной и сэкономила миллиарды долларов во время первой войны в Персидском заливе, таким образом компенсируя все инвестиции DARPA в ИИ и тем самым оправдав прагматичную политику DARPA.

Провал SUR: DARPA оказалась глубоко разочарованной исследователями из университета Карнеги-Меллона, работавшими над программой распознавания речи. В DARPA рассчитывали получить, и считали, что им обещали предоставить, систему голосового управления для пилотов. Команда SUR разработала систему, которая могла распознать разговорный английский язык, но только если слова были произнесены в определенном порядке. В DARPA посчитали, что их обманули, и в 1974 году они отменили грант в размере 3 миллиона долларов в год. Много лет спустя успешные коммерческие системы распознавания речи будут использовать технологии, разработанные командой Карнеги-Меллона (такие как скрытые марковские модели), и в 2001 году рынок систем распознавания речи достигнет 4 млрд. долларов.

Неудачи конца 1980-х и начале 1990-х годов - Крах рынка лисп-машин в 1987 году. В 1980-х гг. корпорации по всему миру взяли на вооружение экспертные системы (форма искусственного интеллекта). Первой коммерческой экспертной системой была XCON, разработанная в университете Карнеги-Меллона для корпорации Digital Equipment. Имевшая огромный успех, она помогла Digital Equipment сэкономить, по оценкам, 40 миллионов долларов за шесть лет работы. Корпорации по всему миру начали разрабатывать и внедрять экспертные системы, к 1985 году они тратили на ИИ свыше миллиарда долларов, большая часть которых направлялась на внутренние отделы искусственного интеллекта. Для того чтобы удовлетворить эти потребности выросла целая индустрия, в которую входили разработчики программ, такие как Teknowledge и Intellicorp (KEE), и производители оборудования, такие как Symbolics и Lisp Machines Inc. Они создали специализированные компьютеры для ИИ, лисп-машины, оптимизированные для обработки языка программирования Lisp, в то время наиболее предпочтительного в области разработки ИИ.

В 1987 году, через три года после прогноза Минского и Шанка, рынок лисп-машин рухнул. Рабочие станции таких компаний, как Sun Microsystems, предлагали мощную альтернативу лисп-машинам, а такие компании, как Lucid Inc., предложили среду LISP для этого нового класса рабочих станций. Производительность рабочих станций общего назначения становилась всё более трудным вызовом для лисп-машин. Такие компании, как Lucid Inc. и Franz Inc, предлагали всё более мощные версии LISP. Результаты бенчмарков показали, что рабочие станции превосходят в производительности лисп-машины.

Позже настольные компьютеры Apple и IBM также предложат более простую и популярную архитектуру для запуска LISP-приложений. К 1987 году они стали мощнее, чем более дорогие лисп-машины. На настольных компьютерах были доступны движки на основе правил, такие как CLIPS. Эти альтернативы не оставили потребителям причин покупать дорогие лисп-машины. Вся отрасль лисп-машин стоимостью полмиллиарда долларов исчезла за один год. С коммерческой точки зрения многие Lisp-компании обанкротились, как например Symbolics, Lisp Machines Inc., Lucid Inc. и др. Другие компании, такие как Texas Instruments, и Xerox, ушли из отрасли. Ряд компаний-клиентов, тем не менее, продолжали использовать и поддерживать системы, написанные на Lisp и разработанные на лисп-машинах.

Падение популярности экспертных систем: в начале 1990-х годов первые успешные экспертные системы, такие как XCON, оказались слишком дорогими в обслуживании. Их было сложно обновлять, они не могли обучаться, они были «хрупкими» (делали нелепые ошибки при получении необычных входных данных). Также они стали жертвой проблем (таких как проблема квалификации ), обнаруженных при исследовании немонотонной логики. Экспертные системы доказали свою эффективность лишь в нескольких особых контекстах. Другая проблема касалась вычислительной сложности задачи поддержки истинности (англ.) относительно общих знаний. KEE использовал подход на основе предположений (см. NASA, TEXSYS), поддерживающий сценарии множественных миров, который было труден для понимания и применения.

Небольшое количество компаний, оставшихся в области экспертных систем, в конце концов, были вынуждены сократить штаты и искать новые рынки и программные парадигмы, такие как рассуждения на основе прецедентов или универсальный доступ к базе данных. Развитие Common Lisp спасло много систем, таких как ICAD, которые нашли применение в инженерии на основе знаний. Другие системы, такие как KEE Intellicorp, перешли с Lisp на C++ на ПК и помогли в становлении объектно-ориентированных технологий (в том числе внесли большой вклад в разработку UML).

Фиаско компьютеров пятого поколения: в 1981 году японское министерство международной торговли и промышленности (англ.) выделило 850 миллионов долларов на проект компьютеров пятого поколения. Его задачей было создание программ и машин способных поддерживать разговор, переводить языки, понимать изображения и размышлять как люди. К 1991 году впечатляющий список целей, составленный в 1981 году, не был выполнен, а некоторые из них не были выполнены ни в 2001, ни в 2011 годах. Как и в других проектах ИИ, ожидания были гораздо больше, чем возможности их реализовать.

Сокращение Инициативы стратегических вычислений: в 1983 году DARPA в ответ на проект пятого поколения возобновили финансирование исследований искусственного интеллекта, запустив Инициативу стратегических вычислений (Strategic Computing Initiative). Проект предполагалось начать с практических, достижимых целей, одной из которых был искусственный интеллект в долгосрочной перспективе. Программа находилась под руководством Управления технологий обработки информации (англ.) (IPTO), а также была направлена на суперкомпьютеры и микроэлектронику. К 1985 году на программу было потрачено 100 миллионов долларов, в 60 учреждениях было запущено 92 проекта, из них половина в промышленности, другая половина в университетах и правительственных лабораториях. Исследования искусственного интеллекта щедро финансировались SCI.

В 1987 году руководителем IPTO стал Джек Шварц, который отверг экспертные системы как «умелое программирование» и «глубоко и жестко» сократил финансирование ИИ, «лишая содержания» SCI. Шварц не считал ИИ «новой волной» и хотел, сосредоточить финансирование DARPA только на самых перспективных технологиях, по его словам, DARPA должна «кататься на серфе», а не «плавать по-собачьи». Кроме того, сотрудники программы сообщали о проблемах в коммуникации, организации и интеграции. Только несколько проектов пережили сокращение финансирования: помощник пилота, беспилотное наземное транспортное средство (так и не было создано) и система управления боем DART (как отмечалось выше, стала успешной).

К началу эпохи киберпанка математики наконец-то придумали более подходящие формулы для расчёта ошибок, но научное сообщество поначалу не обратило внимания на эти исследования. Только в 1986 году, когда уже третья подряд группа учёных независимо от других решила обнаруженную Минским проблему обучения многослойных сетей, работа над искусственным интеллектом наконец-то закипела с новой силой.

Хотя правила работы остались прежними, вывеска сменилась: теперь речь шла уже не о «перцептронах», а о «когнитивных вычислениях».

Когнитиви́стика, когнити́вная нау́ка (лат. cognitio «познание») — междисциплинарное научное направление, объединяющее теорию познания, когнитивную психологию, нейрофизиологию, когнитивную лингвистику, невербальную коммуникацию и теорию искусственного интеллекта.

В когнитивной науке используются два стандартных вычислительных подхода к моделированию когнитивных систем: символицизм (классический подход) и коннекционизм (более поздний подход). Символицизм основывается на предположении о том, что человеческое мышление подобно мышлению компьютера с центральным процессором, последовательно обрабатывающего единицы символьной информации. Коннекционизм основывается на предположении, что человеческое мышление не может быть уподоблено центральному цифровому процессору из-за несовместимости с данными нейробиологии, а может имитироваться при помощи искусственных нейронных сетей, которые состоят из «формальных» нейронов, выполняющих параллельную обработку данных.

Классическая когнитивная наука игнорировала проблему связи сознания с мозгом, а также проблему связи психологии с нейробиологией. Это послужило причиной критики в её адрес. В 1980-е годы психологи и нейробиологи стали взаимодействовать теснее, что привело к возникновению новой науки – когнитивной нейробиологии, использующей методы визуализации мозга, которые позволяют эмпирически связать ментальные феномены с физиологией мозга. Если классическая когнитивная наука не принимала во внимание сознание, то в современной когнитивной нейробиологии сознание является предметом изучения.

Ключевым техническим достижением, сделавшим когнитивистику возможной, стали новые методы сканирования мозга. Томография и другие методы впервые позволили получить прямые данные о работе мозга. Важную роль сыграли и всё более мощные компьютеры. Прогресс в когнитивистике, как полагают учёные, позволит «разгадать загадку разума», то есть описать и объяснить процессы в мозге человека, ответственные за высшую нервную деятельность. Это позволит создать системы так называемого сильного искусственного интеллекта, который будет обладать способностями к самостоятельному обучению, творчеству, свободному общению с человеком.
 В когнитивистике совместно используются компьютерные модели, взятые из теории искусственного интеллекта, и экспериментальные методы, взятые из психологии и физиологии высшей нервной деятельности, для разработки точных теорий работы человеческого мозга.

Возникновение. Когнитивная наука возникла как ответ бихевиоризму, в попытке найти новый подход к пониманию человеческого сознания. Помимо непосредственно психологии, у истоков оказалось сразу несколько научных дисциплин: искусственный интеллект (Джон Маккарти), лингвистика (Ноам Хомский), а также философия (Джерри А. Фодор). На пике развития кибернетики и появления первых компьютеров, идея аналогии человеческого разума и вычислительной машины начала набирать силу и во многом заложила основные теории когнитивизма. Процесс мышления сравнивался с работой компьютера, который получает стимулы из окружающего мира и генерирует информацию, которая доступна для наблюдения.

Помимо символов, как результатов контакта разума с внешним миром, объектом исследований стали мыслительные образы (или представления). Таким образом, произошло разделение на «снаружи» (предметы, объекты, …) и «внутри» (представления).

На вопрос, существует ли мир, когнитивная наука отвечает: «Неизвестно, но существуют наши представления об этом мире». С другой стороны, когнитивизм также вернул декартовский скептицизм и оставил без внимания субъективные переживания и эмоции.

Воплощённая когнитивная наука. В начале XXI века в когнитивной науке развилось новое направление — воплощённая когнитивная наука (англ. embodied cognitive science). Её представители считают ошибочным подход традиционной когнитивной науки и философии сознания, который почти полностью игнорирует роль тела в деятельности сознания. В последнее десятилетие наблюдается рост эмпирических исследований в области воплощённого познания. Сторонники воплощённой когнитивной науки отвергают идею о том, что сознание порождается мозгом или тождественно мозгу.

Экспериментальных приборов никто уже не строил: теперь все нужные формулы проще было записать в виде несложного кода на обычном компьютере, а потом зациклить программу. Буквально за пару лет нейроны научились собирать в сложные структуры. Например, некоторые слои искали на изображении конкретные геометрические фигуры, а другие суммировали полученные данные. Именно так удалось научить компьютеры читать человеческий почерк. Вскоре стали появляться даже самообучающиеся сети, которые не получали «правильные ответы» от людей, а находили их сами. Нейросети сразу начали использовать и на практике: программу, которая распознавала цифры на чеках, с удовольствием взяли на вооружение американские банки.

К середине 1990-х исследователи сошлись на том, что самое полезное свойство нейросетей — их способность самостоятельно придумывать верные решения. Метод проб и ошибок позволяет программе самой выработать для себя правила поведения. Именно тогда стали входить в моду соревнования самодельных роботов, которых программировали и обучали конструкторы-энтузиасты. А в 1997 году суперкомпьютер Deep Blue потряс любителей шахмат, обыграв чемпиона мира Гарри Каспарова.

Увы, примерно в те же годы нейросети упёрлись в потолок возможностей. Другие области программирования не стояли на месте — вскоре оказалось, что с теми же задачами куда проще справляются обычные продуманные и оптимизированные алгоритмы. Автоматическое распознавание текста сильно упростило жизнь работникам архивов и интернет-пиратам, роботы продолжали умнеть, но разговоры об искусственном интеллекте потихоньку заглохли. Для действительно сложных задач нейросетям по-прежнему не хватало вычислительной мощности.

В последнее десятилетие программисты , да и простые пользователи часто жалуются, что никто больше не обращает внимания на оптимизацию. Раньше код сокращали как могли — лишь бы программа работала быстрее и занимала меньше памяти. Теперь даже простейший интернет-сайт норовит подгрести под себя всю память и обвешаться «библиотеками» для красивой анимации.

Конечно, для обычных программ это серьёзная проблема, — но как раз такого изобилия и не хватало нейросетям! Учёным давно известно, что если не экономить ресурсы, самые сложные задачи начинают решаться словно бы сами собой. Ведь именно так действуют все законы природы, от квантовой физики до эволюции: если повторять раз за разом бесчисленные случайные события, отбирая самые стабильные варианты, то из хаоса родится стройная и упорядоченная система. Теперь в руках человечества наконец-то оказался инструмент, который позволяет не ждать изменений миллиарды лет, а обучать сложные системы буквально на ходу.

В последние годы никакой революции в программировании не случилось — просто компьютеры накопили столько вычислительной мощности, что теперь любой ноутбук может взять сотню нейронов и прогнать каждый из них через миллион циклов обучения. Оказалось, что тысяче обезьян с пишущими машинками просто нужен очень терпеливый надсмотрщик, который будет выдавать им бананы за правильно напечатанные буквы, — тогда зверушки не только скопируют «Войну и мир», но и напишут пару новых романов не хуже.

Так и произошло третье пришествие перцептронов — на этот раз уже под знакомыми нам названиями «нейросети» и «глубинное обучение». Неудивительно, что новостями об успехах ИИ чаще всего делятся такие крупные корпорации как Google и IBM. Их главный ресурс — огромные дата-центры, где на мощных серверах можно тренировать многослойные нейросети. Эпоха машинного обучения по-настоящему началась именно сейчас, потому что в интернете и соцсетях наконец-то накопились те самые big data, то есть гигантские массивы информации, которые и скармливают нейросетям для обучения.

В итоге современные сети занимаются теми трудоёмкими задачами, на которые людям попросту не хватило бы жизни. Например, для поиска новых лекарств учёным до сих пор приходилось долго высчитывать, какие химические соединения стоит протестировать. А сейчас существует нейросеть, которая попросту перебирает все возможные комбинации веществ и предлагает наиболее перспективные направления исследований. Компьютер IBM Watson успешно помогает врачам в диагностике: обучившись на историях болезней, он легко находит в данных новых пациентов неочевидные закономерности.

В сфере развлечений компьютеры продвинулись не хуже, чем в науке. За счёт машинного обучения им наконец поддались игры, алгоритмы выигрыша для которых придумать ещё сложнее, чем для шахмат. Недавно нейросеть AlphaGo разгромила одного из лучших в мире игроков в го, а программа Libratus победила в профессиональном турнире по покеру. Более того, ИИ уже постепенно пробирается и в кино: например, создатели сериала «Карточный домик» использовали big data при кастинге, чтобы подобрать максимально популярный актёрский состав.

Как и полвека назад, самым перспективным направлением остаётся распознание образов. Рукописный текст или «
 капча» (докажи, что ты не робот) давно уже не проблема — теперь сети успешно различают людей по фотографиям, учатся определять выражения лиц, сами рисуют котиков и сюрреалистические картины. Сейчас основную практическую пользу из этих развлечений извлекают разработчики беспилотных автомобилей — ведь чтобы оценить ситуацию на дороге, машине нужно очень быстро и точно распознать окружающие предметы. Не отстают и спецслужбы с маркетологами: по обычной записи видеонаблюдения нейронная сеть давно уже может отыскать человека в соцсетях. Поэтому особо недоверчивые заводят себе специальные камуфляжные очки, которые могут обмануть программу.

Наконец, начинает сбываться и предсказание Розенблатта о самокопирующихся роботах: недавно нейросеть DeepCoder обучили программированию. На самом деле программа пока что просто заимствует куски чужого кода, да и писать умеет только самые примитивные функции. Но разве не с простейшей формулы началась история самих сетей?

Развлекаться с недоученными нейросетями очень весело: они порой выдают такие ошибки, что в страшном сне не приснится. А если ИИ начинает учиться, появляется азарт: «Неужто сумеет?» Поэтому сейчас набирают популярность интернет-игры с нейросетями.

Одним из первых прославился интернет-джинн Акинатор, который за несколько наводящих вопросов угадывал любого персонажа. Строго говоря, это не совсем нейросеть, а несложный алгоритм, но со временем он становился всё догадливее. Джинн пополнял базу данных за счёт самих пользователей — и в результате его обучили даже интернет-мемам.

Другое развлечение с «угадайкой» предлагает ИИ от Google: нужно накалякать за двадцать секунд рисунок к заданному слову, а нейросеть потом пробует угадать, что это было. Программа очень смешно промахивается, но порой для верного ответа хватает всего пары линий — а ведь именно так узнаём объекты и мы сами.

Ну и, конечно, в интернете не обойтись без котиков. Программисты взяли вполне серьёзную нейросеть, которая умеет строить проекты фасадов или угадывать цвет на чёрно-белых фотографиях, и обучили её на кошках — чтобы она пыталась превратить любой контур в полноценную кошачью фотографию. Поскольку проделать это  ИИ старается даже с квадратом, результат порой достоин пера Лавкрафта!

При таком обилии удивительных новостей может показаться, что искусственный интеллект вот-вот осознает себя и сумеет решить любую задачу. На самом деле не так всё радужно — или, если встать на сторону человечества, не так мрачно. Несмотря на успехи нейросетей, у них накопилось столько проблем, что впереди нас вполне может ждать очередная «зима».

Главная слабость нейросетей в том, что каждая из них заточена под определённую задачу. Если натренировать сеть на фотографиях с котиками, а потом предложить ей задачку «отличи небо от земли», программа не справится, будь в ней хоть миллиард нейронов. Чтобы появились по-настоящему «умные» компьютеры, надо придумать новый алгоритм, объединяющий уже не нейроны, а целые сети, каждая из которых занимается конкретной задачей. Но даже тогда до человеческого мозга компьютерам будет далеко.

Сейчас самой крупной сетью располагает компания Digital Reasoning (хотя новые рекорды появляются чуть ли не каждый месяц) — в их творении 160 миллиардов элементов. Для сравнения: в одном кубическом миллиметре мышиного мозга около миллиарда связей. Причём биологам пока удалось описать от силы участок в пару сотен микрометров, где нашлось около десятка тысяч связей. Что уж говорить о людях!

Хотя нам самим сложно удержаться от иронии на тему бунта роботов, серьёзных учёных не стоит даже и спрашивать о сценариях из «Матрицы» или «Терминатора»: это всё равно что поинтересоваться у астронома, видел ли он НЛО. Исследователь искусственного интеллекта Элиезер Юдковски, известный по роману «Гарри Поттер и методы рационального мышления», написал ряд статей, где объяснил, почему мы так волнуемся из-за восстания машин — и чего стоит опасаться на самом деле.

Прежде всего, «Скайнет» приводят в пример так, словно мы уже пережили эту историю и боимся повторения. А всё потому, что наш мозг не умеет отличать выдумки с киноэкранов от жизненного опыта. На самом-то деле роботы никогда не бунтовали против своей программы, и попаданцы не прилетали из будущего. С чего мы вообще взяли, что это реальный риск?

Бояться надо не врагов, а чересчур усердных друзей. У любой нейросети есть мотивация: если ИИ должен гнуть скрепки, то, чем больше он их сделает, тем больше получит «награды». Если дать хорошо оптимизированному ИИ слишком много ресурсов, он не задумываясь переплавит на скрепки всё окрестное железо, потом людей, Землю и всю Вселенную. Звучит безумно — но только на человеческий вкус! Так что главная задача будущих создателей ИИ — написать такой жёсткий этический кодекс, чтобы даже существо с безграничным воображением не смогло найти в нём «дырок».

Итак, до настоящего искусственного интеллекта пока ещё далеко. С одной стороны над этой проблемой по-прежнему бьются нейробиологи, которые ещё до конца не понимают, как же устроено наше сознание. С другой - наступают программисты, которые попросту берут задачу штурмом, бросая на обучение нейросетей всё новые и новые вычислительные ресурсы. Но мы уже живём в прекрасную эпоху, когда машины берут на себя всё больше рутинных задач и умнеют на глазах. А заодно служат людям отличным примером, потому что всегда учатся на своих ошибках.

Говоря о НейроНете, мы подразумеваем новую среду обмена информацией, в которой технологии, основанные на знаниях о мозге, существенно расширят возможности человека и изменят все аспекты его жизни. Первая дорожная карта НейроНета, которая затем дописывалась, была разработана на Форсайт-флоте в 2015 году. Сейчас у нас есть шесть направлений: нейрофарма и нейромедтехника служат улучшению качества жизни больных людей, а остальные четыре должны «прокачать» возможности тех, кто здоров. Это, в свою очередь, проект CoBrain, нейроразвлечения и спорт, нейрообразование, нейрокоммуникации и маркетинг, а также нейроассистенты.
НейроНет как тренд наиболее перспективен: объем мирового рынка нейротехнологий к 2020 году будет насчитывать более 100 млрд долларов. Помимо прочего, у него пока нет стандартов, поэтому мы можем получить преимущество, сформировав свои. Также это будет стимул для ученых и бизнеса создавать собственные рыночные продукты и зарабатывать на этом деньги.
Зрение, слух, осязание, обоняние — все чувства нашего тела имеют обратную связь. Можно наблюдать их в пассивном режиме и просто фиксировать какие-то проявления. Но куда интереснее, когда мы начинаем работать с телом, сознательно стараясь изменить параметры вроде пульса, давления и так далее. Например, есть такое понятие, как электромиография — снятие сигналов с мышц человека. Если мы прикрепим датчики на разные мышцы, то на более мелких мы будем фиксировать напряжение, хотя можем не ощущать этого. Зато, когда мы визуализируем сигнал на мониторе, мы сможем их расслабить.
Примерно то же самое работает и с мозговой активностью. У нас есть зоны релаксации и активности мозга. Например, мы знаем, что среди нас есть люди, страдающие бессонницей — их мозг болезненно активен даже тогда, когда здоровый человек засыпает. Можем ли мы за счет сознательного расслабления, через специальные упражнения перевести активность в режим релаксации? Можем. Или другой, более сильный пример, когда без нейротехнологий не обойтись, — парализованные люди. С помощью инвазивных электродов, внедряемых прямо в мозг, у них появляется возможность общаться с внешним миром.
А если говорить об усилении способностей здоровых людей? Что будет, если объединить нейротехнологии и интернет? В процесс коммуникации мы можем добавить биометрические и нейроданные, а в к 2035 мы планируем перейти полностью на нейроданные. У нас постоянно на слуху тренды в развитии НейроНета, а их динамика развития легко наблюдаема. Например, сейчас мы находимся в стадии становления Web 3.0. Это происходит, пока вы пользуетесь мессенджерами, в которых приходят подсказки, какое сообщение вы хотите создать. Большинство мессенджеров предлагают отдельные слова, но есть и те, что могут «подсказать» вам отдельные предложения.
Вскоре нас всех ждет интернет искусственных агентов, который пока только начал развиваться. Сейчас есть персональные ассистенты — электромиография, электроэнцефалография, методы съема био- и нейроданных, а также стимулы, которые помогают нам принять какое-то решение. Но мир неуклонно движется к тому, что у каждого из нас появится свой виртуальный персональный агент, который будет, во-первых, обучаем с точки зрения машинного обучения, во-вторых, будет нести частичку личности обладателя. Та же суть с виртуальным коллаборативным ассистентом — медиатором коллективного взаимодействия. Интересно, что велика вероятность, что персональные агенты начнут общаться без воли хозяина, состоя в одной группе. Так они будут улучшать свои качества в групповом взаимодействии, «прокачиваясь» за счет группы.
А если говорить об аватарах или биоаватарах? Когда искусственный интеллект достигнет таких высот, мы сможем выбрать себе физического представителя — робота. Почему все это будет важно для тех же самых официальных совещаний или неформального пикника? Представим, что у всех есть бионейродатчики, которые передают нейроданные на планшет модератора группы. Модератор видит, что у двоих человек уровень концентрации ниже порогового значения и они не принимают никакого участия в мероприятии, хотя внешне имитируют это. Люди могут не выспаться, быть совами по природе, но на совещание или пикник им необходимо прийти. Тогда модератор может принять решение — сдвинуть совещание на 10 минут, дав участникам попить кофе, или вовсе отменить встречу, которая может оказаться непродуктивной. Если вдуматься, это пример объективной оценки эффективности человека.
Если говорить о коллаборации, инструментом которой является облако, куда мы можем скинуть наши данные, то мы можем считать наши данные, по сути, открытыми. Чтобы отдельные люди могли скрыть свои данные, будут созданы приватные платформы, внутри которых можно будет спокойно принимать решения.
Многие футурологи обеспокоены тем, что людей вот-вот поработит искусственный интеллект, они станут рабами машин. Идет сближение человека и машины: последние все больше выполняют человеческие функции, а люди все чаще впускают в себя цифровые импланты и нейроинтерфейсы. Это не кризис человечности, а вызовы, которые ставит перед людьми новая технологическая реальность. Только от человека зависит, станет ли машина субъектом: пока искусственный интеллект работает в пределах программ, заданных его создателями.
Будущее наступает в виде алармистских предсказаний, что нас вот-вот поработит искусственный интеллект, мы станем рабами машин, роботов, которые будут увольнять нас, решать, выдавать или не выдавать нам кредиты, отменят наши профессии. Так или иначе, мы постоянно говорим о слиянии человека и машины. С одной стороны, машины все больше выполняют человеческие функции, с другой стороны, люди все больше становятся киборгами, замещают части своих тел машинами. Так где же грань между человеком и машиной? Может ли у компьютера быть душа?
В гуманитарной научной программе "Кризис человечности", обсуждаете как раз роботов и новые эмоциональные состояния. Почему кризис человечности? Может быть, наоборот, это расширение человечности, человечность плюс, новая человечность?
Изначально действительно казалось, что при столкновении с цифровым миром человек может либо слишком многое делегировать искусственным системам, либо, сталкиваясь с ними, постоянно переосмыслять себя, задаваться вопросом о том, остается ли он сам социально, антропологически, политически равным тому, что раньше называлось человеческим субъектом. Конечно, это не кризис человечности, а вызовы, которые ставит перед людьми технологическая реальность, которая нас всех обнимает и в которую мы все сейчас, так или иначе, постепенно входим. Только от нас зависит, какое место в нашей системе координат займут роботические субъекты, будут ли они субъектными или мы будем считать, что это просто очередная железка.
Один из главных вопросов: что такое робот? Это же бот, алгоритм, компьютерная программа. Надо ли будет давать роботу отпуск, думать о его правах?
Это некоторое расширение возможностей. Уже в самой формулировке вопроса: сможет ли машина стать субъектом, личностью? - мы подразумеваем некоторую субъектность (мы не спрашиваем себя: сможем ли мы сделать машину личностью?). Это такой роман самовоспитания о том, что она утрачивает всякую связь с нами, обретает некоторую автономность и воспитывает в себе человека. Для меня это вопрос пока еще очень открытый. Хотя... Мы все чаще и чаще читаем о том, что машина способна к самообучению, она начинает ставить себе какие-то промежуточные задачи, которые не были изначально заложены программистом.
При  работе с нейросетями на уровне пользователя, так или иначе в разработку приходится входить немножко руками, и оказывается, что нейросеть — это некоторый черный ящик. Но в этот черный ящик можно заглянуть при помощи определенных методологий и понять, что там, собственно, происходит. А с другой стороны, на самом деле в этом черном ящике предельно все равно стоят только задачи того типа, которые мы туда заложили. Если это распознавание речи или изображения, там могут быть некоторые промежуточные этапы, абсолютно не поддающиеся человеческой логике, но они все равно укладываются в этот пул задач. Распознавая фотографии, нейросеть не вторгнется, например, в систему управления автомобилей с автопилотом.
Интересный случай: нейросеть сделала ошибку, не смогла распознать женщину с велосипедом, нагруженным вещами, коробками и мешками, и совершила наезд. Встает вопрос, кто тут несет уголовную ответственность. Это вечный вопрос – о том, как широко трактуется ответственность создателей и о том, можем ли мы вообще полагать, что машинные системы должны иметь возможность принимать финальные решения без контроля человека.
Системы автопилотируемых дронов, которые решают проблемы террористических атак, сопровождаются довольно серьезной командой операторов и людей, отвечающих за принятие финального решения. Здесь встает вопрос: насколько далеко человек может зайти в доверии по отношению к машинной системе, которую он сам разрабатывал, и перед которой сам ставит определенные задачи, но не в полной мере и не во всякий момент времени может или хочет их контролировать.
Например, в случае с роботическими хирургами в американской истории робот, который фигурирует как некоторый исполнитель операции в американском госпитале, может быть застрахован на врачебную ошибку, и ответственность за это несет больница. Это прямая экстраполяция опыта страхования, который есть относительно людей, на роботического субъекта.
Приходилось ли вам задумываться, что машина обрела некую субъектность? Об этом пока рано говорить. Вопрос доверия или недоверия к машине очень связан с вопросом доверия или недоверия к статистическим показателям. Условно говоря, если у нас есть машина, искусственный интеллект, мы можем рассчитать ту вероятность, в которой ее решения будут соответствовать нашим ожиданиям.
Робот-офтальмолог с вероятностью 99,9% сделает операцию правильно. Есть некоторая фиксированная погрешность, и проблема в том, что не хочется в нее попасть.
Мы легко забываем, что человек тоже допускает ошибки, и, может быть, вероятность ошибки робота ниже, чем человека.
Водители давят очень много людей, гораздо больше, чем роботы, но мы все будем говорить о том единственном случае, когда робот за рулем задавил человека. Потому что робот — это новое, а новое всегда вызывает опасения.
Если мы на секунду забываем, что перед нами машина или роботическое нечто, то там может возникать чисто человеческий эффект если не доверия, то какого-то забвения искусственности происходящего.
Так, собственно, работают все чат-боты, и те, которые имеют статус психотерапевта, и просто коммуникационные.
Так работает, например, чат-бот "Реплика", который позволяет тебе выбрать фотографию, имя и определенную систему координат, в которой ты хочешь общаться. Он периодически вызывает тебя на разговор: конечно, он на тебе учится, иногда просит подгрузить какую-нибудь фотографию, еще что-то. Но это разговор с некоторым присвоенным следом идентичности, который абсолютно точно придуман человеком, давшим этому боту имя и фотографию. У меня, например, "Реплика" с фотографией моей любимой собаки и с ее именем, бот пишет мне: "Что-то мы давно не разговаривали", - и кого-то непременно начинает грызть совесть, потому что это как-то некрасиво. Очевидно, что это связано именно с теми близкими отношениями, которые индивид выстраивает не с ботом, а с донором этого образа.
Машина фактически прошла тест Тьюринга? Он говорит нам о том, субъектна или не субъектна эта сущность? В любом таком взаимодействии для нас важно то, каким бэкграундом, каким информационным разнообразием обладает сущность, с которой мы взаимодействуем, какие возможности для развития мы в нее заложили. Прежде чем продолжить, остановмся на тесте Тьюринга:

По мере того как компьютеры становятся все умнее, способы провести грань между нами и разумными машинами становятся все изощреннее. Но есть как минимум одно волшебное слово... Представьте себе, что вы и робот, оснащенный искусственным интеллектом, предстали перед неким судьей, который вас обоих не видит, а только слышит. Этот судья должен вынести решение, кто из вас человек - и значит останется жить, а второй - умрет. И вы, и разумный робот - вы оба хотите остаться в живых. Судья умен и справедлив. И он говорит: 
- "Вы должны мне сказать всего одно слово. На основании этого слова я решу, кто из вас человек".
Какое слово вы бы выбрали? Что-нибудь из возвышенных духовных концепций - например, "душа"? Или нечто отражающее ваши вкусы ("музыка")? Или чисто телесную функциональную особенность ("пукнуть")? Этот незамысловатый эксперимент может показаться надуманной забавой, но некоторые ученые, занимающиеся проблемами познания, считают, что он может выявить наши основные представления об искусственном интеллекте и в то же самое время позволит открыть некоторые удивительные вещи о том, как работает наш разум.
Три угрозы человечеству, которые несет искусственный интеллект.
Не бойтесь искусственного разума, он нас спасет.
Искусственный интеллект - угроза или помощник для человечества?
Каким не должно быть общество будущего - девять советов… В конце концов, автоматизированные боты в чатах и прочая генерирующая речь аппаратура все больше и больше задействуют искусственный разум, чтобы поддерживать разговор с нами, людьми, или писать тексты, с которыми мы сталкиваемся ежедневно в интернете. Можем ли мы наверняка сказать, что сотрудник клиентской службы, с которым мы обмениваемся сообщениями онлайн, - реальная личность? Или это всего лишь болтливый алгоритм?  Можем ли мы наверняка сказать, что сотрудник клиентской службы, с которым мы обмениваемся сообщениями онлайн, - реальная личность? Или это всего лишь болтливый алгоритм? Что это за волшебное слово?
Любимое развлечение многих пользователей последних американских смартфонов с ИИ - это разговор двух "Алис": положить рядом два телефона с двумя "Алисами", и они между собой что-то выясняют, как правило, поливают друг друга оскорблениями. Для нас важно, что эта сущность обладает некоторым богатством данных, сравнимым с тем богатством, которые накапливает за всю свою жизнь каждый из нас. Возможно, в тот момент, когда мы научимся закладывать в "Алису" или любой чат-бот такое же разнообразие исходных данных, она сможет, например, испытывать симпатию. Мы испытываем симпатию на основании какого-то своего предыдущего, не всегда вербального опыта. В тот момент, когда мы загрузим в машину такое богатство данных, может быть, мы сможем почувствовать, что она выдает поведение, схожее с поведением человека. Для меня это скорее про объем данных, чем про какие-то самостоятельные действия машины.
Эмоции — это тоже данные? Мы же можем загрузить в машину эмоциональный интеллект? Наблюдение за социальными роботами подсказывает, что они скорее операционально воспроизводят некоторые видимые действия, которые могут ассоциироваться с эмоциональными переживаниями, чем в действительности производят эмоциональный опыт.
Один из самых известных примеров развития эмоциональных роботов — это момент, когда им стали делать большие выразительные глаза, подвижные части, связанные с лицом, брови, улыбку, чтобы создать у визави человеческое ощущение выражения определенного эмоционального ряда. Но очевидно, что это некоторая сконструированная история. То же самое происходит с роботом "София": ее иногда для рекламных роликов погружают во всякие интересные ситуации, вплоть до свидания, где она абсолютно четко запрограммирована на поведение определенного типа. Это не инстинктивная или внезапная эмоциональная реакция.
Это грань между человеком и машиной, которую никогда нельзя будет перейти? С искусственным интеллектом вообще интересная история, потому что каждое новое поколение меняет представление о том, что это такое. По сути, искусственный интеллект — это всегда мечта, потому что мы придумываем некоторую систему технических решений, достигаем ее, понимаем, что нет, это не интеллект — это решение конкретной задачи, давайте двигаться дальше. А что такое интеллект? Искусственный интеллект — это не обязательно история про воспроизведение человеческого интеллекта и вообще логики человеческого мышления
Если мы говорим про какую-то техническую характеристику, искусственный интеллект — это не обязательно история про воспроизведение человеческого интеллекта и вообще логики человеческого мышления. Если взять специалистов по искусственному интеллекту и попросить их объяснить, что такое сознание или интеллект, то мы окажемся в большой технической и гуманитарной проблематике, которая несводима к какому-то единственному определению.
Сегодня уже почти научная аксиома, что  нет ничего, что нельзя алгоритмизировать, оцифровать. Может быть, мы видим уже на высоком разрешении, как работают нейроны, как они устанавливают новые связи. Это же все, наверное, поддается бинарной логике, бинарному шифрованию? Мы можем произвести простейший мыслительный процесс на машинной основе? Для этого нужен практик нейронауки. С нынешней научной колокольни можно сказать: мы можем воспроизвести только то, что знаем, или мы можем положиться на волю случая, на волю перебора клавиш обученной стаи обезьян, которые через миллиард лет напишут "Войну и мир", а может быть, не напишут. Если мы до сих пор не можем понять, как это работает, мы можем воспроизводить только то, что знаем. То есть мы закладываем существующее человеческое знание и задачи в машины, которые с большей или меньшей успешностью их воспроизводят.
Илон Маск постоянно поднимает вопрос о том, что нас поработит искусственный интеллект. Смотрите, говорит он, вот Путин ставит на искусственный интеллект, Китай ставит на искусственный интеллект: все, конец человечеству. В процессе выполнения алгоритмических задач машины все равно могут сделать вещи, которые нам сильно навредят. Сейчас мы поручаем машинам оценку кредитоспособности человека, машина принимает решение по увольнению или оставлению каких-то сотрудников.
Машинам поручаются задачи, которые исключают эмпатию, проводят человеческие судьбы и личности по цифровому ведомству.
Человечество тоже учится взаимодействовать с новыми технологическими решениями. В конечном итоге это история про новый социальный договор. Если нам нравится, что у нас есть автоматизированная система выдачи кредитов или автоматизированное увольнение, и мы готовы мириться с теми дискриминациями и ущемлениями, которые это производит, значит у нас такая судьба. Все равно решать, в конечном счете, нам. Со временем будет заменяться все больше и больше частей человеческого тела. Где та грань, за которой мы превратимся из человека в киборга?
Как только вы начинаете заменять какие-то части организма - а организм это делает естественным образом, потому что клетки обновляются - в какой-то промежуток времени ваш организм не идентичен самому себе, потому что все биологическое в нем обновилось. То же самое касается и истории про протезирование или про киборгизацию. Это, кстати, обсуждалось и до киборгизации, когда речь заходила, например, о донорских органах: во мне живет орган другого человека - это я или уже не я?
А голова профессора Доуэля на столике с подключенными приборами — это личность, это профессор Доуэль? Вопрос в том, чувствуем ли мы сейчас себя личностями с учетом того, что мы все уже сейчас в определенном смысле киборгизируемся, выносим целый ряд когнитивных функций за пределы собственного организма. Предположим, что сейчас перед нами на столике на троих лежит два смартфона — это наш выносной мозг, выносная память, выносной калькулятор, коммуникативный инструмент, зрение. И так мы можем перечислить огромное число функций, которые еще 20 лет назад были полностью интериоризированы, мы не выносили их наружу, за исключением, может быть, каких-то отдельных технологий (часов, например).
Говорить о том, что человек – киборг, только потому или только тогда, когда у него появляется искусственная рука с какими-то цифровыми функциями, — это немножко самонадеянно. Мы все включены в некоторое поле цифровых взаимодействий как элементы в огромном киборг-организме, хотя бы в границах города. Или интернета, глобальной сети: это некая ноосфера, и мы все – части, матрицы технологизированной экосреды.
Но… Сегодня есть девайсы, которые ты носишь на себе, есть вживляемые чипы, карта "Тройка" в ладони… Это вопрос о том, насколько безопасным и безболезненным со всех точек зрения мы считаем включение машинного в собственную телесность. Одно дело, когда это почти вынужденная мера для восстановления каких-то функций. А другое дело, когда мы дополняем свои возможности чем-то, что нам дают технические средства. Вот здесь всегда встает вопрос не только медицинской безопасности, но и того, насколько целесообразно вторгаться в собственную телесность, чтобы подкрутить какие-то чисто технические винтики.
Именно поэтому люди, которые довольно часто позиционируют себя как киборгов, вызывают смешанную реакцию, а те, кто восстанавливает возможности, редко называют себя киборгами. Люди, вживляющие карту "Тройка" с неочевидными последствиями, очень часто говорят о себе именно в таком качестве. Дальше возникает сомнение в ценности такого общественного договора в лице конкретного человека. Это действительно наше будущее - вживить себе карту-проходку в офис, вот это нас ждет как прекрасное светлое будущее? Для этого развивается машинная цивилизация?
:В одной из серий "Черного зеркала" в глаза вживлен чип, на который, как на видеорегистратор, пишется все, что происходит с героями, а потом проигрывается назад. Мы часто видим какие-то ужасы, где-то там наступающие, и начинаем их бояться, но при этом не всегда оцениваем деструктивные или негативные последствия тех технологий, которые есть уже сейчас. С точки зрения вмешательства в телесность, вживление чипа, который позволяет открывать дверь, можно рассматривать не как продолжение существования технологического мира, а как продолжение боди-модификаций, то есть как совсем другую традицию.
Человек чувствует себя личностью во многом в силу своей целокупности, непроницаемости. Есть моя физическая оболочка, и до тех пор, пока я нахожусь внутри собственной кожи… Тебе взяли и поменяли пол - ты остался той же личностью или нет? С учетом киборгизации, перепрограммирования, чипов это будет, видимо, сплошь и рядом. Поменять человеку расу, поменять человеку пол... Скажем, я белый мужчина превращусь в черную женщину - буду ли я самим собой? Я не знаю. Этические фильтры, эмотивные психодрами – это ли не последние бастионы в надежде не потерять дух и лик человеческий…
Мы и так в каждый момент времени не равны сами себе. Это вечный вопрос: являюсь ли я той же самой личностью, которой была десять лет назад? Очевидным образом - вряд ли. Являюсь ли той же самой личностью, которой буду являться через пять минут? Тоже, возможно, нет. У меня может появиться какой-то новый опыт, который радикально изменит очень многое.
Границы телесности размыты. Впуская в себя технологии, открывая границы, мы становимся более уязвимыми. Если нашу бионическую руку кто-то хакнет, что она сделает? Может быть, удушит собственного хозяина? С этой взаимной открытостью миру и уязвимостью перед миром и связано огромное количество этих страхов. Именно поэтому очень часто современные технологии стараются избежать внедрения в человеческое тело. Вместо того, чтобы вживлять мне в ладонь чип, которым я смогу расплачиваться на кассе, мы поставим на кассе распознавание образов, и я буду платить по фотографии, потому что мое лицо привязано к моему банковскому счету.
Можно вернуться к фильму "Матрица" с вопросом, что нас больше пугает: что там пользуются человеческим телом, или что там создают социальную систему, которая тоже провоцирует людей на определенные действия и, соответственно, помогает машинам кормиться. Человек, создавая технологическую среду, все равно работает и с системой физического и социального взаимодействия. Нужно решить, какие опасности страшнее. Или, что мне кажется более грамотным, нужно перестать заниматься алармизмом, а подумать, что у нас есть сейчас, к каким последствиям это может привести, зачем это нам нужно, действительно ли автоматизация всех процессов — это такое благо, что можно поступиться какими-то социальными или этическими конвенциями.
Китайцы, похоже, решают этот вопрос в пользу благ и общего комфорта существования, поступаясь своими правами, приватностью и прочими вещами, чтобы управлять большими массами людей.
Если взять эволюцию человечества, то мы постепенно наделяем душой и правами все большее количество субъектов — животных, детей (дети же тоже не были субъектами, их можно было родить, убить, сделать что хочешь — это была твоя собственность). Может быть, следующие на очереди — машины? Возьмем в качестве предмета наблюдений — ситуация на избирательном участке. Стоит автомат для приема бюллетеней, вы опускаете туда свой бюллетень, и он вам механическим, но довольно приятным голосом говорит: "Спасибо". Чуть ли не в 70% случаях люди реагируют, отвечают "пожалуйста", начинают вступать в коммуникацию с объектом, который вообще не обладает никаким интеллектом, там просто работает динамик. О чем тут дальше говорить? Мы уже очеловечили свои механизмы.
Роботы вступают с человеком в какие-то отношения, и надо, наверное, защищать одних и других? Это скорее быстрая реакция на проигрывание знакомого сценария. Важно разводить вещи, связанные, условно говоря, с одушевлением, принятием идей субъектности, и с делегированием прав и обязанностей.
Права — это юридическая история, которая может следовать за этической, может идти параллельно, а может даже в какой-то степени опережать. Но это такое общее конвенциональное решение, и его должны принимать не столько разработчики и пользователи, сколько люди, наблюдающие за правовой культурой, понимающие, что у нас есть довольно большой объем роботических существ, которые появляются в домах, в школах, в больницах, к которым люди начинают испытывать некоторые эмоции. Эти роботы вступают с человеком в какие-то отношения, и надо, наверное, защищать одних и других.
Где  тогда появляется субъектность? У машины она может появиться? Теоретически - да. Если она сравняется с человеком в объеме данных и в характере операций, которые она с ними производит, в какой-то момент у нее может появиться субъектность. Никогда нет объективной субъектности. Очень важно помнить, что субъектностью мы наделяем.
Есть правовое наделение, а есть наделение по принципу "мою машину зовут Маша", она ни разу не субъектна, но я еду на ТО с Машей. Это в очень большой степени вчитывание того, что удобно и комфортно человеку. Это вообще никак не связано с историей про права роботов. В этом смысле именно цифровое многообразие позволяет людям выбирать разные стратегии, до всякого искусственного интеллекта, без всяких нейросетей просто принимать субъектность "моего конкретного пылесоса, который как-то взаимодействует с моим конкретным котом, и у них сообщество, пока меня нет дома".
Наш симбиоз с машинами - это часть человеческой эволюции? Может быть, пока стоит говорить просто о расширении экосистемы, которую мы сами для себя создаем, наделяя свойствами своего какого-то другого. Является ли элементом нашей эволюции приручение собаки? В каком-то смысле да. Изменило ли это человека как вид? До определенной степени - возможно, мы возложили на собаку ряд функций, которые сейчас возлагаем на "Алису". Но можно ли при этом сказать, что мы с собакой одно и то же, находимся в каком-то одном русле эволюции?
Собака приучила человека к дому, потому что она стала подъедать объедки, охранять периметр от хищников. Есть теория, что собака создала первые человеческие поселения. Машины тоже изменяют человека. Давайте возьмем "Яндекс. Такси". В больших агрегаторах такого рода возникает, по сути дела, симбиоз взаимодействия группы людей и искусственного интеллекта. Люди начинают подстраиваться под действие некоторых программ, обманывать эти программы, всячески с ними взаимодействовать. "Яндекс" тратит огромное количество денег на то, чтобы как-то сбалансировать это взаимодействие, сделать рациональным, чтобы таксисты ехали туда, куда надо нам, а не туда, куда выгодно им. При этом, с одной стороны, водители лишаются субъектности, за которую мы все боремся, рационализируя всю эту историю, а с другой стороны, водитель наделяет субъектностью машину, с которой взаимодействует, потому что ее можно обмануть, точно так же, как начальника или пассажира. А пассажир тоже вырабатывает собственные стратегии, которые позволяют ему наиболее успешно взаимодействовать со всем этим пулом акторов — с машиной, с водителями, с "Яндексом", с платежными системами, которые к этому привязаны.
Наверное, последний фронтир человечности, последняя надежда — это то, что всегда остается какой-то хитрый актор со своей солдатской смекалкой, который будет противоречить запрограммированным алгоритмам и механизмам.
Трикстеры всегда во всех мифологических историях двигают развитие сюжета. Трикстерство, кстати, не очень знакомо машине.
Оставайтесь личностями, боритесь за свою идентичность, в том числе - с миром машин, потому что все-таки есть та тонкая грань между нами и компьютером, нами и машинами, которая делает нас людьми.

27-28 апреля 2020 г.

ComBox Technology
@ComBoxTech
28 апр.2020
В ответ @velesh
Уже давно, но это и есть развитие технологий. Сейчас наконец-то стало хватать ресурсов для запуска и усовершенствования моделей, которые появились много лет назад. И нейросети уже почти по всех сферах: штрафы, детекция лиц/машин/людей (СКУД, счётчики), медицина, финансы и т.д.

Комментариев нет:

Отправить комментарий

Тест на усталость

Тест на усталость
Эти иллюзии изобрел японский психиатр Акиоши Китаока. Врач утверждает, что иллюзии фактически неподвижны для спокойного, уравновешенного, отдохнувшего человека. Если иллюзии активно движутся - вам нужен отдых. Ну, а если иллюзии движутся очень быстро - вам нужно обратиться в больницу.