Ответить на этот вопрос пытаются две противоположные теории.
Лиза ЗахароваПереводчик Лайфхакера
Избранное человеку покинуть Африку и заселить всю планету. Это называется общим искусственным интеллектом (ОИИ).Многие утверждают, что ОИИ — далёкая перспектива. Потрясающий прогресс в области искусственного интеллекта, достигнутый за последний год, застал весь мир, включая экспертов, врасплох. С появлением обладающих красноречием диалоговых программных приложений, в просторечии называемых чат-ботами, из эзотерической темы, которую обсуждали поклонники научной фантастики и элита IT-индустрии из Кремниевой долины, дискуссии об ОИИ превратились в дискуссию, в которой отражается широко распространённое общественное недовольство по поводу экзистенциального риска для нашего образа жизни и нашего вида.Чат-боты основаны на огромных языковых моделях. Самые известные из них — серия ботов, которые называются генеративными предобученными трансформерами, или GPT. Их создали в компании OpenAI в Сан-Франциско. Учитывая гибкость, грамотность и компетентность последней версии — GPT-4, легко поверить в то, что у неё есть разум и личность. Даже её странные сбои, известные как «галлюцинации», вписываются в эту теорию.GPT-4 и его конкуренты, например LaMDA и Bard от Google, обучены на библиотеках оцифрованных книг и миллиардах общедоступных веб-страниц. Гениальность языковой модели в том, что она обучается без присмотра, обрабатывая слово за словом и пытаясь предсказать пропущенное выражение. Она делает это снова и снова, миллиарды раз, без постороннего вмешательства.Как только модель получает знания, поглотив оцифрованные записи человечества, пользователь показывает незнакомое ей предложение — одно или больше. Модель предсказывает наиболее вероятное первое слово, затем следующее за ним и так далее. Этот простой принцип показал невероятные результаты на английском, немецком, китайском, хинди, корейском и других языках, включая различные языки программирования.
В чём разница между интеллектом и сознанием
Показательно, что основополагающее эссе об искусственном интеллекте «Вычислительная техника и интеллект», написанное Аланом Тьюрингом в 1950 году, избегало вопроса «Могут ли машины думать?», то есть вопроса о том, есть ли у них сознание. Тьюринг предложил «игру в имитацию»: может ли наблюдатель объективно отличить вывод, напечатанный человеком, от вывода, напечатанного машиной, если личность обоих скрыта.Сегодня это известно как тест Тьюринга, и чат-боты прекрасно с ним справляются, хотя и ловко отрицают это, если спросить у них напрямую. Стратегия Тьюринга положила начало десятилетиям неумолимого прогресса, который привёл к созданию GPT, но проигнорировал проблему.В дебатах вокруг чат-ботов неявно присутствует допущение, что искусственный интеллект — это то же самое, что и искусственное сознание, что быть умным — это то же самое, что быть сознательным. И хотя у людей и других развитых организмов интеллект и сознание связаны, они необязательно всегда сопровождают друг друга.Интеллект заключается в мышлении и обучении ради действия и на действиях, своих и чужих, чтобы точнее предсказывать будущее и лучше к нему готовиться. Неважно, означает ли это следующие несколько секунд («Ой, эта машина быстро мчится мне навстречу») или несколько лет («Мне нужно научиться программировать»). Интеллект в конечном счёте состоит в действии.Сознание, с другой стороны, связано с состояниями бытия — видеть голубое небо, слышать пение птиц, ощущать боль, быть влюблённым. Не имеет ни малейшего значения, чувствует ли что-то вышедший из-под контроля искусственный интеллект. Важно лишь то, что у него есть цель, не связанная с долгосрочным благополучием человечества. И неважно, знает он или нет, что пытается сделать, что у людей называется самосознанием. Он будет «бездумно» преследовать свою цель. Поэтому, по крайней мере концептуально, если мы и создадим ОИИ, это мало что расскажет нам о том, чувствует ли он хоть что-то.Зная всё это, давайте вернёмся к первоначальному вопросу о том, как техника может стать сознательной. Начнём с первой из двух теорий.
Какое объяснение предлагает теория интегрированной информации
Она начинает с формулировки пяти аксиоматических свойств любого мыслимого субъективного опыта. А затем задаётся вопросом о том, что нужно нейронной цепи, чтобы реализовать эти пять свойств, включая одни нейроны и выключая другие. Или, другими словами, что нужно компьютерному чипу, чтобы включать одни транзисторы и выключать другие.Причинно-следственные взаимодействия внутри цепи в определённом состоянии или тот факт, что два активных нейрона могут включать или выключать другой нейрон, в зависимости от обстоятельств могут быть развёрнуты в многомерную причинную структуру. Она идентична качеству опыта — тому, как он переживается, например как ощущаются время и пространство или как воспринимаются цвета.У опыта также есть связанное с ним количество — его интегрированная информация. Только схема с максимумом ненулевой интегрированной информации существует как целое и обладает сознанием. Чем больше интегрированной информации, тем больше схема не поддаётся сокращению и тем меньше её можно считать просто суперпозицией независимых подсхем.Теория интегрированной информации подчёркивает богатую природу человеческого опыта. Просто оглянитесь вокруг, и перед вами предстанет потрясающий видимый мир с его бесчисленными различиями и связями. Или посмотрите на картину Питера Брейгеля Старшего — фламандского художника XVI века, который изображал религиозные сюжеты и сцены из крестьянской жизни.
Питер Брейгель Старший «Крестьянская свадьба». Изображение: Музей истории искусств (Вена) / Wikimedia CommonsЛюбая система, которая имеет те же внутренние связи и причинные силы, что и человеческий мозг, в принципе будет столь же сознательной, как человеческий разум. Однако такую систему невозможно смоделировать. Её необходимо сконструировать или построить по образу мозга. Современные цифровые компьютеры основаны на чрезвычайно слабой связности (выход одного транзистора соединён со входом нескольких транзисторов) в сравнении с центральной нервной системой (нейрон колонки кортекса получает входные данные и выдаёт выходные данные десяткам тысяч других нейронов).Таким образом, современные компьютеры, в том числе облачные, не будут ничего осознавать, хотя со временем смогут делать всё, что могут люди. С этой точки зрения ChatGPT никогда не почувствует себя как-то особенно. Обратите внимание, что данное утверждение не имеет никакого отношения к общему числу компонентов, будь то нейроны или транзисторы, а имеет отношение к тому, как они подключаются. Именно взаимосвязанность определяет общую сложность схемы и количество её возможных конфигураций.
Какое объяснение предлагает теория нейронного глобального рабочего пространства
Она исходит из психологического понимания, что разум подобен театру, где актёры выступают на небольшой освещённой сцене, которая является сознанием. За действиями актёров наблюдает аудитория процессоров, которые сидят за сценой в темноте.Сцена — это центральное рабочее пространство разума, которое отличается небольшой ёмкостью памяти для представления одного восприятия, мысли или воспоминания. Различные модули обработки — зрение, слух, моторика глаз и конечностей, планирование, рассудительность, понимание речи и говорение — конкурируют за доступ к этому центральному рабочему пространству. Победитель вытесняет старый контент, который становится бессознательным.Согласно теории нейронного глобального рабочего пространства метафорическая сцена вместе с модулями обработки нашла отображение в архитектуре неокортекса. Рабочее пространство — сеть кортикальных нейронов в передней части мозга с дальнодействующими проекциями на аналогичные нейроны, распределённые по всему неокортексу в префронтальной, теменно-височной и поясной ассоциативной коре.Когда активность в сенсорной коре превышает определённый порог, в кортикальных зонах запускается глобальное событие и в результате информация передаётся всему рабочему пространству. Глобальное распространение информации и делает её осознанной. Данные, которые не передаются таким образом, например точное положение глаз или синтаксические правила для построения грамотных предложений, могут влиять на поведение, но неосознанно.С точки зрения теории нейронного глобального рабочего пространства опыт весьма ограничен, подобен мысли и абстрактен — сродни скудному описанию, которое можно найти в музее под картиной Брейгеля: «Сцена в помещении. Крестьяне в одежде эпохи Возрождения пьют и едят на свадьбе».В понимании сознания с позиции теории интегрированной информации художник блестяще передаёт феноменологию окружающего мира на двухмерном холсте. В понимании теории нейронного глобального рабочего пространства это кажущееся богатство является иллюзией, призраком. И всё, что можно объективно о нём сказать, указано в кратком описании.Теория нейронного глобального рабочего пространства полностью учитывает мифы нашего компьютерного века, согласно которым всё можно свести к вычислениям. Соответствующим образом запрограммированные компьютерные симуляции мозга с огромной обратной связью и чем-то вроде центрального рабочего пространства будут сознательно воспринимать мир. Возможно, не сейчас, но довольно скоро.
В чём непримиримое различие теорий
В общих чертах дискуссия заключается в следующем. Согласно теории нейронного глобального рабочего пространства и другим теориям вычислительного функционализма (они рассматривают сознание как форму вычислений), сознание — это не что иное, как набор умных алгоритмов, работающих на машине Тьюринга. Для сознания важны функции мозга, а не его казуальные свойства. Если какая-то продвинутая версия GPT принимает и выдаёт такие же входные и выходные шаблоны, что и человек, тогда все присущие нам свойства перейдут к технологиям. В том числе и наше драгоценное сокровище — субъективный опыт.И наоборот, для теории интегрированной информации сердце сознания — это внутренняя причинная сила, а не вычисления. Она не является чем-то бесплотным или неосязаемым. Она конкретна и функционально определена тем, насколько прошлое системы определяет её настоящее (сила причины), и тем, насколько настоящее определяет её будущее (сила следствия). И вот в чём загвоздка: саму причинно-следственную связь, способность заставить систему выполнять определённое действие, а не множество альтернативных, невозможно смоделировать. Ни сейчас, ни в будущем. Это должно быть встроено в систему.Рассмотрим компьютерный код, который моделирует уравнения поля общей теории относительности Эйнштейна, связывающие массу с кривизной пространства-времени. Программное обеспечение точно моделирует сверхмассивную чёрную дыру, которая находится в центре нашей галактики. Эта дыра оказывает настолько сильное гравитационное воздействие на своё окружение, что ничто, даже свет, не может избежать её притяжения.Однако астрофизика, моделирующего чёрную дыру, не засосёт в ноутбук моделируемым гравитационным полем. Это, казалось бы, абсурдное наблюдение подчёркивает разницу между моделью и реальностью: если модель полностью соответствует реальности, пространство и время должны искажаться вокруг ноутбука, создавая чёрную дыру, поглощающую всё вокруг.Конечно, гравитация — это не вычисление. У неё есть причинная сила, позволяющая деформировать ткань пространства-времени и притягивать всё, что имеет массу. Для имитации причинных сил чёрной дыры требуется реальный сверхтяжёлый объект, а не просто компьютерный код. Причинная сила не может быть смоделирована, её необходимо создать. Разница между реальностью и моделью заключается в их причинных силах.Вот почему внутри компьютера, моделирующего ливень, не идёт дождь. Программное обеспечение функционально идентично погоде, но ему не хватает причинной силы, чтобы выпускать пар и превращать его в капли воды. Причинная сила, способность создавать или принимать изменения самостоятельно, должна быть встроена в систему. Это возможно.Так называемый нейроморфный, или бионический, компьютер мог бы обладать таким же сознанием, как и человек. Но это не относится к стандартной архитектуре фон Неймана, которая является основой всех современных ПК. Небольшие прототипы нейроморфных компьютеров были созданы в лабораториях, например нейроморфный чип Intel Loihi 2 второго поколения. Но машина, достаточно сложная для того, чтобы вызывать нечто, напоминающее сознание человека или хотя бы сознание плодовой мушки, всё ещё остаётся амбициозной мечтой далёкого будущего.Обратите внимание, что это непримиримое различие между функционалистской и причинной теориями не имеет ничего общего ни с естественным, ни с искусственным интеллектом. Как я уже говорил, интеллект — это поведение. Всё, что может создать человеческая изобретательность, включая такие великие романы, как «Притча о сеятеле» Октавии Батлер и «Война и мир» Льва Толстого, может воспроизвести алгоритмический интеллект, если дать ему достаточно материала для обучения. Появление ОИИ — цель, достижимая в не столь отдалённом будущем.Спор идёт не об искусственном интеллекте, а об искусственном сознании. И эту дискуссию невозможно разрешить, создав более крупные языковые модели или более совершенные алгоритмы нейронных сетей. Чтобы ответить на этот вопрос, надо понять единственную субъективность, в которой мы абсолютно уверены, — нашу собственную. Как только у нас будет чёткое объяснение человеческого сознания и его нейронных основ, мы сможем распространить наше понимание на умные технологии последовательным, научно обоснованным способом.Эта дискуссия не имеет большого значения для того, как чат-боты будут восприниматься обществом в целом. Их языковые навыки, база знаний и социальное обаяние скоро станут безупречными. Они будут наделены идеальной памятью, компетенцией, уравновешенностью, способностью рассуждать и интеллектом. Некоторые даже заявляют, что эти создания больших технологий станут следующим шагом эволюции, «сверхчеловеком» Ницше. Я смотрю на это более мрачно и считаю, что такие люди принимают закат нашего вида за рассвет.Многим, а возможно, и большинству людей во всё более атомизированном обществе, оторванном от природы и организованном вокруг социальных сетей, будет эмоционально трудно противостоять технологиям, живущим в телефонах. И в разных ситуациях, рядовых и более серьёзных, люди будут вести себя так, будто чат-боты обладают сознанием, умеют по-настоящему любить, страдать, надеяться и бояться, даже если представляют собой не более чем сложные справочные таблицы. Они станут для нас незаменимыми, возможно, даже более важными, чем действительно разумные существа. Хотя чат-боты ощущают столько же, сколько телевизор или тостер, — ничего.
Лайфхакер