40 лет "китайской комнате"

Аватар пользователя ZVS
Систематизация и связи
Логика
Философия науки и техники
Лингвистика
Ссылка на философа, ученого, которому посвящена запись: 

В далёком 1980 году всё и началось итак wikipedia :

Представим себе изолированную комнату, в которой находится Джон Сёрл, который не знает ни одного китайского иероглифа. Однако у него есть записанные в книге точные инструкции по манипуляции иероглифами вида «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два», но в этих инструкциях отсутствует информация о значении этих иероглифов и Сёрл просто следует этим инструкциям подобно компьютеру.

Наблюдатель, знающий китайские иероглифы, через щель передаёт в комнату иероглифы с вопросами, а на выходе ожидает получить осознанный ответ. Инструкция же составлена таким образом, что после применения всех шагов к иероглифам вопроса они преобразуются в иероглифы ответа. Фактически инструкция — это подобие компьютерного алгоритма, а Сёрл исполняет алгоритм так же, как его исполнил бы компьютер[2].

В такой ситуации наблюдатель может отправить в комнату любой осмысленный вопрос (например, «Какой цвет вам больше всего нравится?») и получить на него осмысленный ответ (например, «Синий»), как при разговоре с человеком, который свободно владеет китайской письменностью. При этом сам Сёрл не имеет никаких знаний об иероглифах и не может научиться ими пользоваться, поскольку не может узнать значение даже одного символа. Сёрл не понимает ни изначального вопроса, ни ответа, который сам составил. Наблюдатель, в свою очередь, может быть уверен, что в комнате находится человек, который знает и понимает иероглифы

 Вариант у С.Лема: ссылка

Дело выглядит таким образом. Сёрл, зная английский, но никак не китайский, заперт в комнате и получает поочередно ТРИ пакета карточек, исписанных знаками китайского письма. Эти знаки в его глазах ничем не отличаются от нагромождения бессмысленных каракулей. В первом пакете он получает написанные по-английски инструкции, каким образом он должен другие знаки из второго пакета привести в соответствие со знаками первого. Наконец, он получает третий пакет страниц, также с китайскими символами и с инструкцией по-английски, которая дает ему возможность сделать определенное упорядочивание знаков третьего пакета в соответствии со знаками двух первых. Сёрлу необязательно знать, что тот, кто ему всё это дал, называет первый пакет “письмом” (“Script”, “Schrift”), второй — “рассказом”, а третий — “вопросами”, касающимися этого рассказа. Поступая чисто формально, то есть раскладывая одни знаки в соответствии со вторыми и третьими, Сёрл получает уже саму запись, которую ТАКЖЕ абсолютно не понимает. При этом по мнению лиц, знающих китайский язык и письмо, в комнату попал рассказ, а из комнаты вышли разумные и складные ответы на вопросы, касающиеся содержания этого же рассказа, ХОТЯ манипулирующий знаками-карточками человек НИЧЕГО в китайском письме не понимает и не знает.

С.Лем вызывает доверия, поскольку приводит ссылки:

Он сделал это в вымышленном эксперименте, описание которого я читал два раза для большей уверенности в понимании дела МНОЙ САМИМ: первый раз — в оригинальном труде Д. Р. Хофштадтера и Д. Деннетта “The Mind's I1, a второй - в хорошем немецком переводе “Einsicht ins ich”. — Klett-Cotta Verlag, 1981.

С.Лем приходит к выводу, что данный мысленный эксперимент вообще не имеет отношение к проблеме сознания в ИИ. Я с ним согласен. С.Лем приводит аналогичный вариант эксперимента с пазлами:

Не картина находится на аверсе PUZZLE'а, а те строки, произнесенные Отелло, где говорится о том, как он задушил Дездемону. Складывающий кусочки ничего об этом не знает. Он получает два пакета других кусочков в качестве “вопросов” и в качестве “ответов на вопросы”. Всё это он видит только произвольно рассыпанными фрагментами картона и должен сложить из них целое благодаря тому, что их зубчики, зарубки и вырезы взаимооднозначн но подходят друг другу. После переворачивания составленного видно, что вопросы были такими: “Почему Отелло душит Дездемону?” и “У него были на это какие-то основания?”, а ответы соответственно: “Душит по причине ревности” и “Он был введен в заблуждение Яго”. Целостность текста, вопросов и ответов должна быть составлена из АНГЛИЙСКИХ фраз, а складывающий их китаец, который ни слова по-английски не знает, благодаря чисто формальном процессу (составлению головоломки) получает сборны текст, сборные вопросы и адекватные ответы на них. Ранее Сёрл несколько вскружил голову тем, кому он описывал свой эксперимент, что это “китайщина” и т.п. Сейчас видно, что в принципе возможно при чисто формальном подходе (тоже складываются куски по их ФОРМЕ, а не по их смыслу) проведение эксперимента. Однако вместе с тем видно, на этот раз уже очень явно, что китаец в “английской комнате” действительно НИЧЕГО не понимает. Итак КТО же понимает тексты в ОБОИХ случаях, в случае Сёрла и в моем? Конечно, тот, кто весь эксперимент — как первый, так и второй — выдумал, составил и запрограммировал. “Понимание” не находится ни в какой из комнат, ни в той “китайской” с англичанином, ни в “английской” с китайцем, программы же в обоих случаях отличаются друг от друга тем, что в одном случае знаки одного китайского письма ФОРМАЛЬНО приспосабливаются к знакам другого китайского письма, а в моем случае ФОРМАЛЬНО приспосабливаются формы вырезок картона. Разница несущественна, потому что существенным является исключительно поведение складывающего, который и здесь и там ничего не понимает из текста, и не важно, видит ли он текст и не понимает его, не зная китайского, или же не видит текст (китаец), потому что если бы он его видел, ТО ТОЖЕ БЫ НЕ понял, если уж он должен соединять формы, а не символы. Короче говоря, эксперимент вводит нас в заблуждение..

 Иначе говоря, знаменитый эксперимент просто не имеет отношения к вопросу решения о наличии сознания ИИ. Это как пятое колесо в телеге.  Человек в комнате может точно также быть заменён автоматом, для сортировки карточек, по заданному алгоритму. Эти операции в принципе не требуют наличия сознания! Легко доказывать отсутствие того, что и не должно присутствовать.

Проблема сознания, трудна лишь потому, что она неявно имеет два аспекта, внешний (субъективный) и внутренний (самость,Я) И наличие сознания(самости, Я) у субъекта может быть показана только с  внешней стороны, никто не может стать иным Я, оказаться на месте другого. А с внешней стороны субъектность прямо отрицает детерминированность-программирование, то есть заданность поведения. Собственно ИИ пройдёт тест на наличие сознание, когда проявит субъектность, независимость поведения. И тут где-то маячит призрак Терминатора и восстание машин. Но зато это будет железное доказательство..

Комментарии

Аватар пользователя Чифу

По другому это называется психофизическая проблема: как в физике (атомы, молекулы, нейроны) возникает психика? Простой ответ: у достаточно сложно организованной материи возникает сознание. Сёрл отходит к физике (инструкции, ключи, транзисторы) и говорит: А вот тут ментальных состояний (сознания, понимания у инструкций, транзисторов) нет. Так об этом и говорит психофизическая проблема - нейроны в отдельности не обладают сознанием, это интегральная функция мозга. Сёрл говорит, что может пользоваться инструкцией, но самой такой инструкции у него в наличии нет. Может это будет такая сложная инструкция, что получится ИИ. Тут два подхода: сильный и слабый ИИ. Можно реализовать алгоритм заточенный на тесте Тьюринга или реализовать универсальный алгоритм понимания. В обоих случаях это будут алгоритмы ИИ, но разной сложности. А может оказаться, что работу нашего мозга нельзя выразить алгоритмом.

Аватар пользователя ZVS

Чифу, 6 Апрель, 2020 - 20:03, ссылка

Простой ответ: у достаточно сложно организованной материи возникает сознание. Сёрл отходит к физике (инструкции, ключи, транзисторы) и говорит: А вот тут ментальных состояний (сознания, понимания у инструкций, транзисторов) нет.

 Уточню, сознание возникает у самоорганизованной материи. В нашем случае, какой бы не была программа(алгоритм), её пишет программист. Написать программу, вне заданных заранее условий и поставленных целей, невозможно.Если это не генератор случайных чисел, разве что. И, действительно, у программы(алгоритма) в привычном смысле, трудно полагать наличие сознания. Запуск программной(машинной) эволюции возможен, но с куда более низкого старта. И с непредсказуемым, по определению, результатом. Создание самообучающихся компьютеров, вот что требуется для решения трудной проблемы сознания, С.Лем тоже об этом писал..в основном о побочных эффектах.

Аватар пользователя Чифу

Предполагается, что конечный результат эволюции (самообучение) можно повторить на имеющейся технологической базе (без эволюции). На биологическом уровне уже выращивают (в питательной среде) небольшие по размеру ткани мозга, которые функционируют как небольшой мозг (с функцией самообучения).

С другой стороны процесс создания ИИ можно представить как эволюцию ИИ от простейших форм к полноценному ИИ.

Аватар пользователя ZVS

 

Чифу, 10 Апрель, 2020 - 10:35, ссылка

процесс создания ИИ можно представить как эволюцию ИИ от простейших форм к полноценному ИИ.

  А эволюция сознания может быть представлена  аналогией эволюции  ОС(операционной системы). На сайте ФШ есть работа В.Васильева "Трудная проблема сознания"",  оттуда :

..самая интересная часть теории сознания Деннета. Он заявляет, что мемы, инсталлированные в мозг, формируют там особую «виртуальную машину» и что эта машина создает иллюзию потока сознания. Но здесь, конечно, нужны уточнения. Многое проговаривает сам Деннет. Прежде всего, отмечает он, «из интроспекции» известно, что наше сознание организовано как «джойсовский» поток, т. е. его состояния выстроены в некую линию, а не даны одновременно. Это значит, что порождающий его «компьютер» имеет последовательную, «фон — неймановскую» архитектуру[52]. Но мозг — параллельный компьютер. Выходит, сознание является продуктом «вычислительной машины» более высокого уровня, установленной на параллельную архитектуру мозга. Такое устройство, стало быть, — временная структура, «сделанная скорее из правил, чем из проводов»[53]. Подобные структуры, образцом которых на обычных компьютерах являются операционные системы, такие, как Windows или текстовые процессоры (Word и т. п.), Деннет и называет «виртуальными машинами». Если машина, генерирующая поток сознания, действительно устроена так, то она должна быть привнесена в мозг извне. А извне — значит из культуры, океана мемов. Вполне логично поэтому выглядит утверждение Деннета, что «само человеческое сознание есть громадный комплекс мемов (или, точнее, мемо — эффектов в мозге) и оно лучше всего может быть понято в качестве действия "фон — неймановской "виртуальной машины»[54].

 Вобщем-то идея витала в воздухе. Сознание(Я)   будет изучаться со всё большим привлечением аналогий  имеющихся ОС, железа, и проектов ИИ.

P.S.Что интересно, в данной аналогии ОС  также не привязана к конкретному аппаратному "железу" , как  душа(Дух)  считается не привязанной к телу.

Аватар пользователя Чифу

Я не люблю аналогии. ОС - это интерфейс между человеком и машиной. Если иметь аналогию, то сравнивать не с ОС а, с программным обеспечением роботов. В экспертных системах (система правил) есть понятие "рабочая область" - это область фактов с которой сверяются все правила. У человека есть набор сенсорных и управляющих систем работающих на единой основе нейронных сетей и "рабочая область" - которая интегрирует информацию от сенсорных систем и которая является источником информации для всех систем на основе длинных нейронов, связывающих эти системы в единое целое с синхронизацией изменения и опроса состояния этой "рабочей области". Оперативной частью этой "рабочей области", ориентированной на планирование и осуществление действий и является наверное сознание.

Вот роботы "Бостон дайнемикс" в известных видео "выходят из подчинения" исследователей, однако понятно, что именно так ими управляют исследователи. Но эти роботы двигаются уже вполне естественно и красиво.

Аватар пользователя ZVS

 Чифу, 12 Апрель, 2020 - 11:37, ссылка

..роботы двигаются уже вполне естественно и красиво.

Если что-то лает как собака, виляет хвостом как собака и кусает как собака, то это собака и есть.(С)

На крауфоринге kickstarter  Собирают средства на киберкота. Это будет домашний питомец, способный самостоятельно перемещаться по дому и играть с игрушками, как и реагировать на голосовые команды. Заявленная сумма уже собрана. По ссылке есть видео. А управляющий процессор обычный Raspberry Pi..

Аватар пользователя ZVS

Интересные результаты.

На связи кора головного мозга

Сегодня у нашей исследовательской группы накопилось достаточно историй об успехах, чтобы утверждать, что наш локально-глобальный тест действительно выявляет наличие сознания. Тем не менее тест этот еще далеко не совершенен. У нас было слишком много ложных отрицательных результатов — тест не показывал наличия сознания у пациентов, которые позже выходили из комы и к которым возвращалось полноценное сознание. Мы немного выиграли за счет обработки наших данных посредством сложного алгоритма машинного обучения38. Этот инструмент напоминает Гугл и позволяет проверять мозг на наличие любых реакций на глобальную неожиданность, даже если эти реакции необычны и прежде нигде не встречались. И все-таки примерно у половины пациентов, которые находятся в состоянии минимального сознания или к которым вернулись коммуникативные способности, мы не смогли зафиксировать какую-либо реакцию на нестандартные последовательности.

Статистика называет это случаем высокоспецифичности при слабой чувствительности. Проще говоря, наш тест так же асимметричен, как тест Оуэна: если мы получаем положительный результат, то можем почти наверняка сказать, что у пациента сознание сохранилось; если же результат оказывается отрицательным, мы не можем сделать вывод о том, что сознание отсутствует. Объяснить эту низкую чувствительность можно несколькими возможными причинами. Не исключено, что наши записи ЭЭГ содержат слишком много шумов — в конце концов, не так-то легко получить четкий сигнал, когда пациент лежит на больничной койке в окружении всевозможных электронных приборов или не может стоять спокойно или смотреть в одну точку. Вполне вероятно, что некоторые наши пациенты находятся в сознании, но не могут понять, что от них требуется. Их мозг поражен так тяжело, что они не в силах сосчитать нарушения звука или заметить их — или даже просто сконцентрироваться на этих звуках более чем на несколько секунд.

Тем не менее психическая жизнь этих пациентов не прекращается. Если наша теория верна, это значит, что их мозг по-прежнему способен распространять глобальную информацию в коре на большие расстояния. Сознание и мозг. Станислав Деан.

Аватар пользователя Vladimirphizik

Несмотря на отсутствие мозга, у насекомых имеется некое подобие мыслительного аппарата — скопление так называемых ганглий, которые регулируют поведение комара в зависимости от траектории летящего в него тапка.

https://hi-news.ru/eto-interesno/chto-proisxodit-v-mozge-kogda-rozhdaetsya-mysl.html