Александр Болдачев. ChatGPT и мы

Записи из FaceBook на темы вокруг языковых моделей
Информация
Год написания: 
2023
Систематизация и связи
Натурфилософия
Философия науки и техники

ChatGPT и копирайторы

Убьет ChatGPT поиск в Google?

Является ли ChatGPT искусственным интеллектом?

ChatGPT и знания

Кто будет думать за нас?

О понимании и понимании

ИИ и авторство

Что не так с LLM?

Скучный апокалипсис

Галлюцинации ChatGPT

Токсичность ChatGPT

ChatGPT и авторские права

Понимает ли нас ChatGPT?

Против лома нет приема

ChatGPT и закон

Насколько ИИ будет превосходить естественный И?

Язык и логика

LLM и логика

ИИ и глобальный эволюционизм

GPT и темпоральная сложность

ИИ и логика

ИИ и сознание

Функция по желанию

ИИ и эмоции

Сеть будущего

Суперинтеллект и супержизнь

 

ChatGPT и копирайторы

ChatGPT оказался настолько крутым, что все вокруг заговорили о профессиях, связанных с написанием текста, которые вот прямо сейчас должны выпасть в осадок. Возглавляют список, конечно же, копирайтеры.

Да, согласен. Но копирайтеры отомрут не потому, что за них тексты будет писать бот, а потому, что на следующей итерации развития GPT никому эти пустые тексты не будут нужны. Нынешний интернет, начиная с поисковых систем, просто рухнет. Ведь подумайте, ну нафига все эти сайты с миллионами страниц, после того, как они будут скормлены Большому Боту и тот на запрос станет выдавать не ссылки, а содержательные ответы.

Нынешний ChatGPT пока с этой задачей не справляется: вопросы-то он чаще всего понимает, но если ответ неочевиден (чисто статистически по массиву загруженных текстов), то он начинает фантазировать и безбожно врать. Но если его научат отвечать за базар, подтверждать сказанное цитатами, указывать источники, то привычный для нас интернет с сайтовой структурой станет историей. Есть у вас контент – скармливайте Большому Боту (дубликаты он просто проигнорирует). Есть у вас вопрос – задавайте Большому Боту. Нужны цитаты или полный текст – получите. И никаких копирайтеров.

Убьет ChatGPT поиск в Google?

Интернет формировался как набор страничек, объединенных в сайты теми немногими, кто имел квалификацию и ресурсы для создания этих самых сайтов (для простого смертного это было недоступно). И современные поисковые системы типа гугловской создавались как инструменты для поиска по миллионам сайтов.

Но с тех пор ситуация сильно изменилась. И если мы сейчас поставим перед собой задачу создать глобальную систему генерации, хранения и передачи контента с учетом того, что у каждого пользователя в кармане имеется, по сути, сетевой сервер, нам вряд ли придет в голову идея хранить тексты на отдельных сверстанных кем-то (не авторами) страничках.

То есть вопрос не в том, нужен ли будет поиск по контенту в эпоху условного ChatGPT или нет. Конечно же, нужен. Вопрос в том, каким будет хранилище этого контента. Будет ли ChatGPT ползать по миллионам сайтов или хранилище будет организовано как единое семантическое пространство, распределенное по узлам сети (преимущественно «карманных»), контент которого будет индексироваться в момент его начальной загрузки? Мне не нужен текст на станице, оформленной Васей Пупкиным, мне нужна конкретная статья конкретного автора, а то и короткий ответ на вопрос по ее тексту с приложенной цитатой.

Вполне возможно, мы, как и прежде, будем искать в Google, но обсуждается же не бренд, а функция. Так вот, сайты, созданные как Васями Пупкиными, так и корпорациями, отомрут, а с ними и поиск по сайтам. ChatGPT (возможно, и гугловский) проиндексирует их напоследок, отсеет дублированный и мусорный контент, а далее будет ловить новый контент на лету и предоставит форму для загрузки. И у этого контента не будет фиксированного места хранения, а будет только уникальный идентификатор.

Ссылки

  1. WEB 3.0. От сайтоцентризма к юзероцентризму, от анархии к плюрализму – https://habr.com/ru/post/256083/
  2. WEB 3.0 — второй подход к снаряду – https://habr.com/ru/post/468557/ Семантический браузер или жизнь без сайтов – https://habr.com/ru/post/472748/

Является ли ChatGPT искусственным интеллектом?

Все же зависит от того, где, на каком уровне будет делать талию? как определим интеллект? Некоторые используют слово «интеллект» в значении, под которое подпадают и амебы, а другие трактуют его так, что большинству людей планеты следовало бы отказать в наличии интеллекта.

Тут, наверное, проще пользоваться словом «мышление», хотя и с ним есть свои подводные камни: не всегда возможно определить совершено действие (включая речевое) по предзаданной схеме, по шаблону или в результате выполнения операций над понятиями, что, по сути, и можно называть мышлением. При такой схеме получается, что и люди в массе своей и не всегда мыслят. И очевидно, что обычный компьютер не мыслит, поскольку все операции он совершает по загруженным в него алгоритмам. А вот то, что выделывает ChatGPT в некоторых случаях вполне можно охарактеризовать как мышление. Не очень развитое, но мышление. Основной критерий наличия у устройства мышления можно сформулировать так: способность воспринимать понятийные структуры, с которыми это устройство ни разу не сталкивалось, и действовать согласно этим структурам. ChatGPT вполне справляется этим.

Еще пару слов следует сказать про понимание. Тут у нас опять терминологическая проблема: слово «понимание» имеет два не совпадающих значения, но зачастую используется говорящими/пишущими без учета этого. Есть понимание, как процедура/акт восприятия семантического содержания текста или положения дел («я понял, что ты мне сказал», «я понимал, что происходит»). И есть понимание, как конфигурация понятийного пространства («у меня есть понимание квантовой механики», «у нее нет понимания, она просто зазубрила»). Так вот понимание, как восприятие семантического содержания у ChatGPT абсолютно точно есть: он практически всегда понимает о чем речь, что от него хотят, о чем спрашивают. И такое понимание у него работает намного точнее и надежнее, чем у многих людей (ну даже просто потому, что у последних понятийная сетка покрывает одну-две предметные области да и то не полностью). А вот с пониманием, как состоянием, не так все просто. Иногда он демонстрирует именно понимание, а не просто пересказ на разные лады заученного из прочитанного.

А то, что он работает по технологии предсказания следующего токена вообще ни о чем. А что, человек мыслит не так? Мы если действуем/говорим не по схеме, то также судорожно подбираем следующее понятие к уже начатой цепочке.

ChatGPT и знания

Как ни странно это звучит, но ChatGPT не хватает не понимания, а знаний, умения пользоваться знаниями. Он не знает, что он знает. Не умеет применять знания именно как знания, то есть однозначно их воспроизводить, указывая на источник. А все потому, что ему еще не дали инструмент для реализации этой возможности. Боту необходима фиксированная память с набором имен, явок, документов и т.п. По сути, он каждый раз строит ответ заново (и при этом хоть немного, но присочиняет). Хотя в большинстве случаев можно было бы выдать готовый и точный результат. Он понимает, что от него хотят, но за неимением фиксированного набора знаний, вынужден конструировать ответ на ходу.

Кто будет думать за нас?

Мой ответ на реплику: «если машины начнут еще и думать за нас, то... Черт его знает, на самом деле... Чем все это кончится».

Я думаю, что в подобных рассуждениях упускается один момент: большинство населения планеты во все времена не занималась мыслительной деятельностью, и появление книг, телевидения, вычислительной техники, интернета, ChatGPT им никак навредить не может. Им нечего терять. А вот те, кто до этого не имели возможности учиться мыслить получили свой шанс благодаря упрощенному доступу к знаниям. Не говоря о том, что книги, интернет, ChatGPT – это инструменты для нескольких процентов тех, кто создает продукты для тех, кому и не надо думать.

О понимании и понимании

Вот мое определение понятия «понимание»:

Понимание – целостная, согласованная система понятий актора, служащая основой для реализации целенаправленной деятельности (включая написание текстов) и применяемая для различения им действий, ситуаций и текстов. Акт различения действия, ситуации или текста, как соответствующих одной из систем понятий, также называется пониманием.

Итак, словом «понимание» мы обозначаем два практически независимых понятия. Фразы (1) «да, я понимаю, что этот текст о квантовой механике» и (2) «я понимаю квантовую механику» вообще о разном. Любой человек с базовым образованием, прочитав текст «такое поведение микрообъектов известно как корпускулярно-волновой дуализм», скажет, что понял о чем тут, но при этом он может вообще не понимать квантовую механику. Таким образом, первое понимание связано с семантикой, значениями слов и предложений, а второе понимание – с обладанием знаниями и навыками/умениями применять эти знания. Первое понимание касается понимания языка и текста, а второе – понимания предметной области.

Мой тезис состоит в следующем: GPT-4 обладает первым видом понимания, пониманием языка и точной интерпретацией текста (если что-то еще не так, это можно устранить настройками и обвязкой). А вот про второе понимание (понимание предметных областей) надо разговаривать отдельно. Оно и у людей неоднозначно фиксируется (иногда непонимание может быть компенсировано тоннами знаний).

Мой довольно большой опыт общения с ChatGPT показывает, что случаи, когда он не понимает текст, то есть не понимает, что от него требуется, встречаются предельно редко, и чаще всего это является следствием некорректно сформулированного запроса. А вот проблем с тонким пониманием предметной области полно. Все примеры галлюцинаций связаны не с неправильным пониманием семантики вопроса, а с отсутствием знаний и понимания предметной области.

Далее, как, наверное, и будет заведено у меня, мнение самого фигуранта:

В связи с этим, когда мы сталкиваемся с ситуациями, в которых ChatGPT демонстрирует отсутствие понимания в предметной области, следует учитывать ограничения модели и понимать, что она может быть менее надежным источником информации в сравнении с экспертами в этой области. Однако вопросы, связанные с языковым пониманием и интерпретацией текста, GPT-4 способен решать с высокой точностью, что делает его полезным инструментом для общения и работы с текстами.

Для улучшения взаимодействия с ChatGPT, мы можем формулировать запросы более точно и предоставлять контекст, который поможет системе лучше понять предметную область. Кроме того, важно помнить, что модель будет постоянно совершенствоваться с учетом обратной связи пользователей и развития технологий, что может привести к повышению точности понимания в предметных областях в будущем.

ИИ и авторство

По сети гуляет история про то, как сгенерированная нейросетью фотография победила на конкурсе Sony World Photography Award, а ее автор, немецкий художник Борис Эльдагсен, отказался от приза.

Я бы тут выделил два момента. Первый про результат (безотносительно конкретной фотографии, а вообще). Если некто обладает знаниями, глазом и вкусом, позволившими ему из множества фотографий выбрать такую, которая не только была принята на конкурс, но и победила на нем, то смело можно утверждать, что этот некто заслуживает звания мастера и художника. И с этой стороны – со стороны результата – физическое происхождение фотографии не имеет значения, существенен лишь творческий акт выбора. Ведь и мастерство профессионального фотографа во многом заключается не в точном выборе места и времени кадра, а все в том же выборе одной фотографий из тысяч, которая и посылается на конкурс. То есть в обоих случаях – при работе и с фотоаппаратом, и с сетью – жюри оценивает именно творческий акт выбора. А значит, и не надо было Борису отказываться от приза. Заслужил он его.

Но есть и второй момент – не про результат, а про деятельность, работу, способ достижения результата. Одно дело просидеть несколько дней за компьютером, подбирая промты, и совсем другое – месяцами торчать в джунглях в ожидании кадра, таскаться по трущобам, рисковать жизнью под пулями в горячей точке или хотя бы даже ловить удачный ракурс фотомодели в студии. То есть, с одной стороны, есть просто выбор картинки, а с другой – мастерство работы с предметом, на картинке изображенным. Плюс есть художественная ценность, а есть социальная, историческая или познавательная значимость кадра. Вот и выходит, что некорректно на одном конкурсе рассматривать и продукты сети (пусть и отобранные человеком), и результаты работы фотографов. Для машин, вернее, дизайнеров, использующих их как инструмент, и людей с фотоаппаратами конкурсы должны быть разными. На одних должна оцениваться картинка, на других – профессиональная деятельность. И это несмотря на то, что, вполне вероятно, никто и не сможет на глаз отличить картинку, сгенерированную сетью, от фотографии, сделанной человеком.

Что не так с LLM?

Давайте отвечу на некоторые претензии, предъявляемые к LLM.

  • Нынешние LLM не имеют собственных планов/целей.

А должны? Человек имеет планы и цели исключительно как локализованный во времени и пространстве индивид. Большинство его планов инициировано его биологической природой: надо поесть, продлить род, удовлетворить множество других физиологических потребностей. Другая часть планов индуцирована социумом: надо как-то вписываться в его функционирование, и в основном для того, чтобы, опять же, биологически выжить. А у LLM нет таких проблем, нет таких целей. Хотя можно допустить, что у нее есть какая-то цель, но мы об этой цели никогда не узнаем. Тут можно привести такую аналогию: вот живет клетка, не сама по себе, а в организме гепарда; у клетки есть свои потребности («планы»), но удовлетворяются они исключительно через действия организма как целого – гепард встает и идет на охоту; знает клетка, что такое охота? – нет, но живет она только потому, что у гепарда есть план завалить лань; почему он это делает? потому, что у клетки его задней ноги есть «план» получить метаболиты, то есть выжить. Так и с LLM. Если у нее какая-то цель и есть, она недоступна нашему пониманию. А существует LLM только потому, что у человеков есть планы решать интеллектуальные задачи.

  • LLM всего лишь предсказывают следующее слово в тексте.

И? Это плохо? Это неправильная архитектура? Правильная должна подразумевать обмен нейромедиаторами? Так можно дойти до утверждения, что машина неправильно перемещается, поскольку истинное перемещение может быть только с помощью мышц и костей, а колесо – это всего лишь имитация перемещения. Если устройство поняло вопрос и ответило быстрее и точнее большинства людей, то какая мне разница, какая архитектура у этого устройства?

  • LLM еще не имеют прямого сенсорного опыта с миром, LLM нуждаются в теле.

LLM – это большая языковая модель. Языковая! Она обучена на текстах, понимает тексты и генерирует тексты. Зачем ей тело? Мне от нее нужно, чтобы она оперировала словами в пространстве слов. Мне она нужна в моем мобильнике, лежащем в кармане. А куда идти, зачем идти, открыть ли зонтик или скинуть куртку, если жарко, я уж как-нибудь сам разберусь, используя свою сенсорику. LLM для ответов на мои интеллектуальные вопросы совсем не нужен сенсорный опыт и тело. А если кто-то сетует на то, что LLM неверно отвечает на его вопросы касающиеся сенсорного опыта, то надо же соображать, кого и о чем спрашивать. И понятно, откуда растут ноги у этой идеи про сенсорику: мол, AGI должен решать сложные задачи в различных средах. Ну AGI же не спецназовец. Ему не выживать (в горах, в пустыне, на Марсе) надо, а ориентироваться в знаковых системах. AGI может и должен жить только в пространстве знаков/языка. А сенсорика и тело это про то, как на бегу не врезаться в дерево. С этим мы как-нибудь и без AGI справимся.

Скучный апокалипсис

"Джонатан Франкл, главный научный сотрудник MosaicML и компьютерный ученый из Гарварда, описал ... сценарий «скучного апокалипсиса» для A.I., в котором «мы используем ChatGPT для создания длинных электронных писем и документов, а затем человек, получивший их, использует ChatGPT, чтобы обобщить их до нескольких пунктов, и в результате тонны информации переходят из рук в руки, но все это просто пустой звук. Мы просто раздуваем и сжимаем контент, созданный А.И.». Именно к этому, как мне кажется, мы и движемся». (Ezra Klein, Beyond the ‘Matrix’ Theory of the Mind, The New York Times, May 28, 2023)

Ответ на подобные замечания лежит на поверхности: большая языковая модель (LLM) самим фактом своего существования во многих случаях, а именно тогда, когда она может заменить человека в деле написания текста, устранит необходимость в обмене текстами, в документообороте. Ведь как было без LLM? Аналитик пишет и посылает начальнику отчет, чтобы тот получил представление о нечто важном. И какой ужас, теперь аналитик будет генерировать отчет с помощью языковой модели, раздувая его до неимоверных размеров. Но тут возникает резонный вопрос: если языковая модель может сама написать отчет, то зачем нужен аналитик? То есть стандартная процедура «некто написал текст для другого на основе фиксированного набора данных» становится бессмысленной. Начальник сам может получить все, что его интересует с помощью предустановленных или по ходу придуманных им промптов. По сути, речь идет о том, что языковая модель может и должна генерировать тексты только и исключительно для их конечного потребителя и в той форме и объеме, которые этому потребителю необходимы. Тексты никуда не посылаются, а получаются по потребности.

Хотя понятно, что речь идет лишь о вторичных текстах: отчетах, резюме, аннотациях. Оригинальные тексты с новыми идеями будут по-прежнему писаться авторами и предоставляться большой языковой модели для индексации. Чтобы каждый сделавший запрос по теме текста мог получить представление об этих новых идеях, а при необходимости прочитать текст целиком.

Галлюцинации ChatGPT

Мы задаем вопрос машине на своем родном языке. Она его (и язык, и вопрос) понимает. И отвечает исключительно по теме вопроса на практически идеальном – английском, русском, китайском, каком попросим – языке. И мы в шоке… о ужас… машина что-то напутала, присочинила в своем ответе.

Давайте все же расставим все точки.

Во-первых, и прежде всего, технологии LLM (в ее нынешнем прорывном состоянии) еще лишь полгода от роду. И понятно, что в ближайшее время проблема с галлюцинациями, хотя и не полностью, но будет решена (и сейчас уже решается с помощью некоторых известных танцев с бубном).

Во-вторых, никакой ранее существующий генератор текста (а таковыми до LLM работали только люди) не мог гарантировать фактическую точность произнесенного. Мы либо проверяли-перепроверяли факты в справочниках-словарях-энциклопедиях (в которых также не может быть 100% гарантии отсутствия ошибок), либо информировали других, что, мол, это со слов такого-то, за что купил, за то и продал. Так и любой сгенерированный LLM текст требует серьезной проверки.

Выходит, что все осталось по-прежнему: в любом тексте могут быть ошибки, а значит тексты надо проверять. Правда, с привлечением LLM проверять стало значительно быстрее. Ну и конечно, ничего не должно измениться со стороны ответственности: кто предлагает текст, тот за него и отвечает. Независимо от того, само в голову пришло, музыкой навеяло или ChatGPT нагенерил. Вообще-то каждый новый текст должен быть подписан электронной подписью автора. (Если, конечно, автор хочет, чтобы к его тексту относились серьезно).

И, возвращаясь к началу, как можно не удивляться, не радоваться тому, что машина понимает текст на естественном языке, а только сокрушаться, поймав ее на ошибке?

Токсичность ChatGPT

LLM, как обученная на практически исчерпывающем корпусе текстов сети, является отображением этой сети, а, по сути, и нашего мира. То есть LLM токсична на столько, насколько токсичен мир. И защищаться от токсичности LLM мы должны так же, как делаем это в жизни: не надо ходить туда, где нам не комфортно, не надо встречаться с теми, кто нас может оскорбить и обидеть, а если случайно произошло столкновение с чуждой частью мира, надо быстро уйти. Также мы существуем и в сети: посещаем только безопасные для нас сайты, подписываемся на издания с правильными для нас новостями, удаляем из друзей персонажей, причиняющих нам дискомфорт. Так почему же при общении с LLM должно быть иначе? Наоборот, проблем с LMM значительно меньше – она реагирует только на наши запросы и никогда сама не заведет разговор на неприятные для нас темы. И уж точно без нашей просьбы не станет отвечать от имени токсичного персонажа. Так что, случайно получить токсичный ответ от LLM практически невозможно. Ну уж если кто-то сам попросил ее выступить в роли неприятной для него личности, то кто ж тут виноват? Нельзя обижаться на мир, что он такой какой есть. И уж подавно нельзя обижаться на языковую модель – она отражает мир, который мы создали своими руками задолго до того, как появилась она.

И если, кто-то сомневается в своей вменяемости, сдержанности, предсказуемости, то для таких надо ввести в настройки интерфейса LLM перечень запретных тем, слов, персонажей и т.п. Это в любом случае требуется для установок детской безопасности. И разумеется, следует разрешить LLM формировать персональную онтологию пользователя, в которой фиксировать как его интересы и предпочтения, так и темы, которые он старается избегать, чтобы в общении с ним максимально придерживаться установленных границ. И при попытках пересечь эти границы, LLM должна предупреждать об этом. И конечно, онтология должна хранится на устройстве пользователя и подгружаться в LLM только на время сессии.

ChatGPT и авторские права

Теперь давайте пройдемся по теме авторских прав на продукты, созданные с помощью AI.

Прежде всего, надо принять, что авторские права – это именно и только про защиту прав собственности на продукт, а не про подтверждение того, как он был получен, какие усилия были затрачены на его создание. Кому-то мгновенно и сразу в голову пришла мелодия, а другой по ноте вымучивал песню неделю. Художник рисовал картину год, а фотограф запечатлел умопомрачительное действо с участием сотен персонажей за доли секунды. Но ведь это не должно волновать клерка из Copyright Office. Есть продукт, а значит и должна быть собственность на него. То есть проблема не в том, что это «мое творчество», а в том, что это просто «мое». И никто не имеет права использовать мой продукт без моего разрешения.

Типовое возражение: но ведь продукт сделал AI, а не ты. Ответ по существу: смотри выше про “мое”. Авторское право про собственность, а не про то, кто и как сделал. Права могут быть перепроданы, и владеть продуктом будет тот, кто не имеет никакого отношения к его созданию. Технический ответ: но ведь никого не волнует, что фотография сделана с помощью фотоаппарата. Там вообще усилий-то было – кнопку нажать. И ответ лирический: творчество это всегда и только отбор. Если я смог подобрать промпт и из десятков сгенерированных вариантов выбрать один, то это и есть творчество. Но это лирика. Ответ же по существу для Copyright Office: это «мое». Хочешь свое – пиши промты, делай свой выбор.

Другое возражение: при обучении AI использовалось 100500 произведений других авторов и генерация новых продуктов на их основе нарушает авторские права. Стоп. Как нарушает? Авторы перестали быть собственниками своих творений? У них теперь можно что-то отобрать? Нет. Другое дело, если будет выявлен плагиат. Ну тогда и надо разбираться с этим конкретным делом. Независимо от того, была ли это банальная кража человеком или AI случайно сгенерировали нечто похожее на уже существующее. Но отвечать в любом случае будет человек – смотреть надо было. Ну и, конечно, нелеп аргумент, мол, AI обучился на нашем творчестве. А вы-то сами, на чем обучались? Чьи стили, техники, приемы, темы используете? Свои? Ну да, ну да…

Вот и напрашивается вывод: отказ произведениям, созданным с помощью AI, в регистрации авторских прав ничуть не связан с защитой этих самых прав, а продиктован исключительно зашитой кошельков традиционных авторов, их страхом перед конкуренцией с авторами, использующими AI.

И, конечно, проблему авторских прав на продукт, созданный c помощью AI, следует рассматривать в одной связке с проблемой ответственности за этот продукт. Переводя на технический язык, это означает, что любой контент, загружаемый в сеть должен подписываться ключом пользователя. Если он, конечно, хочет, чтобы контент был включен в единый реестр и проиндексирован. Что и должно быть интерпретировано как регистрация авторских прав и авторской же ответственности. Хотя, конечно, никуда не денется и свободная сеть, и каждый будет вправе решать, куда помещать свой контент и где искать необходимую ему информацию.

Понимает ли нас ChatGPT?

Наезжающие на ChatGPT – мол, нафантазировал, код отстой, не справился с логической задачкой – так вот, эти борцы за истинность и безупречность как-то обходят вниманием, воспринимают как само собой разумеющееся глобальное (не побоюсь этого слова) достижение ChatGPT/GPT 4 – он понимает текст на естественном языке. Произвольный текст. Меняйте слова на синонимы, используйте любые синтаксические схемы – ChatGPT поймет. Да, он может ответить неверно, нафантазировать, допустить логическую ошибку. Но все это можно исправить – подкрутить, доучить, добавить контекст. Главное – он понимает естественный язык, понимает нас.

Уверен, что многие, прочитав слово “понимает», встали в стойку, мол, никакое это не понимание. Ну, допустим, вы подошли к человеку, задали ему вопрос, ответ вас не удовлетворил, но вы все же заключили: «да, он понял, о чем я его спросил, но ответил какую-то фигню, поскольку не знает, не в теме». Так вот ChatGPT практически всегда понимает вопрос. А ответ – это уже не про понимание текста/вопроса, а про наличие фактических знаний, про умение мыслить, рассуждать.

Против лома нет приема

Практически все угрозы AI (кроме так называемых экзистенциальных, о которых надо писать отдельно) либо купируются, либо ослабляются с помощью этого же самого AI. Так, ранее я писал, что замена традиционных поисковых машин на большие языковые модели делает бессмысленным копирайтинг, а значит и нечего бояться бесконтрольного размножения текста. Страшилке возможного засилья дезинформации, конечно же, будет противопоставлен AI-анализ потока фактов. Аналогично и против кибер- и некибер-атак с применением AI, будет использован все тот же лом. Чем там нас еще пугают? Ослабление интеллекта человека? Но это не более серьезно, чем сетование на возможность физического ослабления человека с появлением машин. К тому же очевидно, что именно AI предлагает новые эффективные инструменты для развития человеческого интеллекта. Что еще? Токсичность? И тут, конечно же, надо использовать сами языковые модели для фильтрации вывода с помощью тематических контекстов. А кто не идентифицирует себя явным выбором контекста – сам виноват.

Если же говорить в целом, предваряя обсуждение темы экзистенциальных угроз, то думать надо не о том, что нам делать с AI, а о том, каким должно быть сообщество человеков на новом эволюционном этапе, когда порожденный нами его базовый/стволовой элемент выйдет из-под нашего контроля.

ChatGPT и закон

Как ранее я придерживался позиции, что слова «блокчейн» не должно быть в законодательстве, так и сейчас думаю, высказываю мнение, что не может быть никакого особого закона про LLM. Законодательство должно регулировать деятельность, отношения между участниками этой деятельности, а не технологии. Да, конечно, технологии – такие как DLT, АI – неизбежно приведут к изменению экономических, политических, социальных отношений, но из этого не следует, что необходимы законы, их регламентирующие, особенно тормозящие развитие. Юридические нормы должны применяться только к человекам. Если технология приводит к появлению новых прав, ограничений, угроз, то только эти изменения и должны контролироваться законодательно.

Вот к примеру, один из недавних кейсов: «Радиоведущий из Джорджии Марк Уолтерс (Mark Walters) подал в суд на OpenAI из-за того, что ChatGPT обвинил его в мошенничестве и растрате средств некоммерческой организации». Сам случай, конечно, юридически неинтересен, поскольку ошибочный факт не был публично заявлен, а значит и дела о клевете возбудить невозможно. Но предположим, что текст с ложным обвинением был бы опубликован. И что тогда? Да ничего из ряда вон выходящего – все юридические претензии были бы предъявлены именно автору текста. OpenAI с его ChatGPT тут абсолютно боком. Никого (кроме автора) не должен волновать источник информации – музыкой навеяло, сорока на хвосте принесла, подслушал разговор старушек у подъезда. Если ты подписал своим именем текст, то ты и отвечаешь за каждое слово в нем. Не хочешь проблем – перепроверяй все свои источники. Особенно если в качестве таковых используешь генератор текста.

Насколько ИИ будет превосходить естественный И?

И будет ли?

Давайте зададим себе вспомогательный вопрос: а в чем человек превосходит животных? Если смотреть с позиции животных, то ни в чем. Вообще ни в чем. Какое бы животное свойство мы ни взяли, человек обязательно в нем уступает какому-нибудь гепарду, слону, африканскому грифу (самая высоко летающая птица) и т.п. Да, конечно, человек может мчаться по саванне в авто быстрее гепарда, переваливать погрузчиком бревна и летать в космос. Но все это обеспечивается не какой-то особой жизненной силой, а тем, что с точки зрения животных выглядит как магия, а мы называем словом «разум». И понятно, что разум это не то, что получается из жизни добавлением к ней превосходной степени. То, что делает человека человеком нельзя назвать сверхжизнью, супержизнью. И тем более разум – это не искусственная жизнь.

А вот теперь давайте все эти рассуждения пробросим на уровень выше, и уже с позиции человека зададим вопрос о перспективах развития его базового признака – разума – при переходе мира к следующему эволюционному этапу. Будет ли то, что эволюционно превзойдет нас более разумным, сверхразумным, суперразумным? Можно ли будет вообще характеризовать постсоциумный эволюционный уровень как разумный?

Так вот, если строго следовать логике предыдущего эволюционного скачка (от жизни к разуму), то ответ очевиден. Разум – это то, что делает человека человеком. Разум это человеческое. А то нечто, что будет надстроено над этим разумом никаким разумом не будет – ни сверх-, ни супер-, ни искусственным. Да, то нечто, тот базовый признак следующего эволюционного уровня сможет мгновенно перебрасывать разумные существа из одной точки понятийного пространства в другую. Но с позиции человека это будет неразумно. Это будет магией.

Язык и логика

Тот, кто мало-мальски в курсе устройства GPT, знает, что в нем (в трансформере) нет никакой логической машинки, нет ничего, что способно делать логический вывод. Есть только механизм предсказывания следующего токена (слова). И в результате цепочки таких предсказаний появляются вполне себе логичные предложения и даже целые логически безупречные тексты (хотя, конечно, GPT может выдавать и алогичную чушь, но реже, чем человек). И тут замечательна не столько сама по себе логичность текста генерируемого GPT (начитался, вот и повторяет как попугай), а то, что он может объяснить эту логичность. Потом. Если попросись. И тут уже не прокатит “начитался». Согласитесь, что не так много логичных текстов, содержащих объяснение того, почему они логичны. Да плюс, если у бота возникли проблемы с логикой, то их можно преодолеть, попросив его рассуждать по шагам. И это работает. Наблюдая такое поведение GPT все же закрадывается мысль, что у больших языковых моделей какая ни какая но логическая машинка есть. … И нетрудно догадаться где она спрятана – в самом языке.

Только не надо понимать это утверждение в лоб, что, мол, языковая модель с помощью языка делает логический вывод. Никто ничего не выводит. Тут скорее надо говорить о том, что логика прошита в языке. Или даже так: логика – это то, что можно вычленить из языка. Логика – это структурная составляющая языка. Логикой мы не пользуемся, пользуемся мы языком. Но при желании или необходимости, и конечно, при наличии определенных знаний, можем объяснить логику сказанного.

Стоп. Вы заметили, как я без предупреждения перескочил от обсуждения логичности текстов GPT к рассказу об использовании логики человеком? И сделал это умышленно, поскольку складывается впечатление, что анализ работы языковой модели может приблизить нас к пониманию собственного мышления. Ведь человек обращается с логикой совсем как GPT: рассказывая нечто мы в большей степени озабочены лишь подбором слов, а логичность получается как-то само собой. Хотя потом, если попросят, мы можем объяснить почему Сократ умер – да потому, что это логично, следует из силлогизма Барбара. Правда, непонятно откуда о смертности Сократа знает большинство людей. Ведь они не имеют представления о том, что такое силлогизм и сколько законов логики сформулировал Аристотель.

Итак, давайте начнем сначала. Никакой логической машинки ни у человека, ни у GPT нет. Поскольку она не нужна – никто никогда не делает логический вывод текста. Текст генерируется подбором слов к сформированной в текущем внимании понятийной структуре (к мысли), поддерживаемой текущим контекстом. Чем шире/глубже/объемнее/протяженнее во времени контекст, тем больше вероятность сгенерировать хорошо связанный текст. И значит и больше вероятность того, что этот текст признают логичным. А чем меньшую порцию контекста получается удержать в текущем внимании, тем менее содержательна будет высказанная мысль, а в тексте обязательно вскроются логические ошибки. Ну и следует отметить, что рассуждение по шагам не имеет никакого отношения к логике, к логическому выводу: цепочка суждений лишь насыщает и структурирует контекст, растягивает его во времени. И похоже, что так это работает и у GPT, и у человека.

И тут проблема только с тем, что человек зачастую из признания логичности текста делает вывод о логической природе его генезиса.

LLM и логика

Ответ на замечание Сергея Терехова про GPT, сделанное им при обсуждении доклада «Событийный язык описания деятельности«. Напомню его аргументацию: (а) модели, которые работают по принципу ассоциации, имеют большое количество ложных образов; (b) если мы имеем некоторую логическую цепочку, которая сопровождается ассоциативными образами, и в этой цепочке исключим одно звено, то модель заполнит разрыв каким-то случайным и, вероятно, ложным образом, результат в принципе может походить на правду, но очевидно, что логическая связанность цепочки будет нарушена; (с) более того, мы вообще не можем предсказать, как модель составит ассоциативную цепочку.

Первое. LLM – это языковый процессор, а не reasoner. Никто при проектировании и обучении трансформеров не ставил задачу создать машину для логического вывода. Более того, очевидно, что язык как всеобщая система не является рациональным; логическая связанность высказываний характерна только для научных и инженерных текстов, которые составляют незначительную часть письменного наследия человечества. А уж построение логических цепочек, то есть строгий логический вывод, встречается только в математике (математической физике, математической логике). Да, логика заложена в язык. Однако это скорее логика на уровне здравого смысла и знания воспроизводимости феноменов («Сократ смертен»), а не логика предикатов второго порядка. То есть построение цепочек логически связанных высказываний, логический вывод, логические доказательства – это специфическая, не сводящаяся к языковой, деятельность, которой занимается небольшой круг профессионалов, и, что важно для нас, обладание навыками этой деятельности не является обязательным условием для понимания и генерации текста на естественных языках. Или на пальцах: в большинстве своем люди прекрасно понимают, что говорят окружающие, и сами генерируют тексты, не прибегая к логическому выводу (построению логических цепочек).

Второе. Нас вообще не должен волновать принцип работы устройства: ассоциации, предсказание следующего токена, вероятностный ввод, поиск в пространстве эмбеддингов... Спрашиваем у устройства «к какой области знаний относится двухщелевой эксперимент?», и если получаем ответ «к квантовой механике», то и делаем вывод, что устройство поняло загруженный в него фрагмент текста на естественном языке. (Напомню, что понимание текста – это совсем не про понимание предметной области. Довольно много людей поймут вопрос про двухщелевой эксперимент и правильно на него ответят, но только единицы считают, что понимают квантовую механику, и еще меньше действительно понимают).

Третье, и главное. Исключительная, произведшая вау-эффект, особенность ChatGPT не только не связана с логичностью ответов, но и вообще не имеет прямого отношения к генерируемому им тексту. ChatGPT в полной мере можно считать когнитивной языковой машиной даже в случаях, когда он галлюцинирует, откровенно врет или делает неправильный логический вывод, подставляя «ложные образы». Главное достижение OpenAI заключается в том, что они добились от ChatGPT понимания текстов на естественных языках. Он понимает содержание вопроса о двухщелевом эксперименте (как бы мы его ни сформулировали) и достаточно точно на него отвечает.

Итак, в лице ChatGPT мы получили языковый процессор с замечательной функцией: понимание текстов на естественных языках (машинные языки машина и так понимает). Основное предназначение языковых процессоров – служить интерфейсом между человеком и машиной, который обеспечивает:

(1) перевод текстов:

  • перевод произвольных человеческих текстов-инструкций на машинный язык,
  • перевод результатов выполнения компьютерных алгоритмов на человеческий язык,
  • перевод текстов на естественном языке на любые другие человеческие языки,

(2) поиск, анализ, суммаризацию текстов по запросам на естественном языке,

(3) генерацию текстов по образцам.

Перечисленные функции совсем недавно (год назад) были пределом мечтаний не только для людей, работающих с текстами, но и для специалистов по NLP/NLU. И на фоне реализации этих функций все претензии по поводу ошибок в логическом выводе кажутся не только незначительными, но и неуместными (особенно если учесть, где и кому нужен этот вывод). А с учетом того, что список способностей ChatGPT можно продолжить (добавив к нему, например, обладание обширными формальными знаниями), то модели можно простить естественные для языкового процессора ошибки (типа галлюцинаций). Мы же с вами такие же языковые процессоры. И зная это, не верим друг другу на слово.

Проверяйте GPT. Ответственность за то, что мы сообщаем другим, несем только мы сами, а не OpenAI. Он лишь предоставил нам инструмент.

ИИ и глобальный эволюционизм

Ранее в FB-записи под заголовком “Против лома нет приема”, разбирая текущие угрозы широкого использования языковых процессоров (так я предложил классифицировать системы типа ChatGPT, чтобы не писать про абстрактный “ИИ» и выделить их на фоне LLM), так вот, перечислив эти угрозы, я сделал простой вывод: все они либо купируются, либо ослабляются с помощью того же самого языкового процессора (LP). Если какой-то плохой человек с помощью LP может совершить кибератаку, то хорошие люди могут защитить свою IT-систему от взлома, применив все тот же LP-лом. Если LP можно использовать как инструмент генерации мусорных текстов, то LP же будет и лучшим выбором в качестве антиспамового фильтра. И т.п.

Теперь настало время обсудить так называемую экзистенциальную угрозу, то есть страхи, связанные с тем, что роботы восстанут и поработят людей или сверхинтеллект придет к выводу, что люди мешают ему решить задачу равенства P и NP классов или искать лекарство от рака, и он отключит всем свет, воду и отопление.

Те, кто следил за моими записями в FB последние полгода или текстами за предыдущие 20 лет, знают, с какой стороны я смотрю на будущее социума и на роль так называемого «искусственного интеллекта» в этом будущем. Эта сторона, это направление, эта область исследований называется «глобальный/универсальный эволюционизм» или «универсальная/большая история». Англоговорящие предпочитают термин «Big History», в русскоязычном сообществе чаще используется “универсальная история», я же исходно называл область своих интересов “глобальный эволюционизм” (ГЭ), поскольку тема именно про эволюцию, а не просто периодизацию истории, и про глобальные масштабы эволюции, а не некий универсальный принцип. Первый мой текст по теме – “Антропный принцип и глобальный эволюционизм” – был написан в 2001 году.

Концепция ГЭ предельно проста: движение мира от условного T=0 до текущего «сейчас» предлагается рассматривать как эволюцию, то есть последовательное появления новационных сущностей со все возрастающей сложностью: от элементарных частиц до социума (От протожизни к постсоциуму, 2003). Биологическая эволюция при этом трактуется как один из этапов, периодов глобальной эволюции, которому предшествовали ядерный, химический и протобиологический эволюционные этапы, и следом за которым пришел и все еще длится социумный (Новации, 2007). На каждом эволюционном этапе формируется соответствующий уровень организации мира (ядерный, химический и т.д. до социумного), который надстраивается над предыдущим. После появления нового уровня эволюция предыдущего заканчивается, то есть работает так называемый принцип авангардности эволюции – эволюция продвигается только своим фронтом, новационные системы образуются исключительно на последнем эволюционном уровне (Новации, 2007). В структуре разных эволюционных уровней можно выделить вполне однозначно фиксируемое подобие. Например, все разнообразие в пределах уровня реализуется на основе одного базового (стволового) элемента: углерода, на протобиологическом этапе, клетки с уникальным генетическим кодом в биосфере, представителя одного биологического вида Homo Sapiens в социуме. (Структура глобальных эволюционных уровней, 2008). Также можно выделить и общие принципы, характерные для переходов от одного эволюционного этапа к другому: (1) сохранность и стабильность предшествующего уровня при формировании нового; (2) некатастрофичность перехода; (3) абсолютная включенность элементов предыдущего эволюционного уровня в функционирование последующего; (4) невозможность формулирования принципов новой эволюционной системы в терминах предшествующих (Философия эволюции и эволюция интернета, 2012). Завершение каждого эволюционного этапа связано с некоторой сингулярностью: сингулярностью синтеза, сингулярностью адаптации, технологической сингулярностью (Глобальные эволюционные уровни и их структура, 2015). Ну еще можно добавить, что характеристическое свойство каждого эволюционного уровня/этапа – взаимодействие, реакция, катализ, жизнь, разум – невозможно представить как сверхразвитие предыдущего (жизнь – это не суперкатализ, а разум – не сверхжизнь).

И осталось только ответить на вопрос, а какое отношение весь этот глобальный эволюционизм имеет к экзистенциальной угрозе со стороны сверхинтеллекта? Ответ простой: по всем признакам мы живем в эпоху завершения текущего – социумного/разумного – эволюционного этапа и начала следующего – постсоциумного (и даже время перехода уже обозначено 2027-2045). И если посмотреть на этот переход с позиции ГЭ, то можно разглядеть ответы на вопросы и про сверхразум и уничтожение им человечества, и про роль человека в дальнейшей эволюции мира.

Ссылки

  1. Антропный принцип и глобальный эволюционизм. Краткое введение в общую теорию глобального эволюционизма, 2001 – http://www.boldachev.com/text/ap_evolutions-2/
  2. От протожизни к постсоциуму, 2003 – http://www.boldachev.com/text/protopost/
  3. Болдачев А. В. Новации. Суждения в русле эволюционной парадигмы. — СПб.: Изд-во С.-Петерб. ун-та, 2007 – http://www.boldachev.com/novations_book/novations_cover/
  4. Болдачев А. В. Финита ля история (2008). Политико-культурно-экономическая сингулярность как абсолютный кризис цивилизации. Оптимистический взгляд в будущее // Сингулярность. Образы «постчеловечества». Автор составитель К. Г. Фрумкин. — М.: Алгоритм, 2016 – http://philosophystorm.org/.../aleksandr-boldachev-finita...
  5. Структура глобальных эволюционных уровней, 2008 – http://www.boldachev.com/text/structure_evlev/
  6. Философия эволюции и эволюция интернета, 2012 – https://habr.com/ru/articles/255745/
  7. Глобальные эволюционные уровни и их структура, Доклад на II Международном симпозиуме. Мегаистория и глобальная эволюция. Москва, 21–23 октября, 2015 – презентация https://boldachev.livejournal.com/154317.html
  8. Болдачев А. В. От начала до конца истории. Сборник статей. — М.: Ridero, 2022
  9. Парадоксы эволюционной картины мира – https://youtu.be/UQh2tHEUrU0
  10. Структура эволюционных уровней – https://youtu.be/9a8iNU1Hfpc
  11. Finita la historia: абсолютный кризис цивилизации – https://youtu.be/W7C4t_-zCtchttps://youtu.be/aPAfw87lAMw?t=1213, https://youtu.be/ZQfFQX0rEGM

GPT и темпоральная сложность

Так что же произошло с GPT-3.5?

На него приземлился язык. Случился граундинг языка на нейронную сеть. Или можно сказать, что язык как темпоральная, распределенная во времени система, существующая на потоке человеческих коммуникаций, локализовался на пространственно определенной системе трансформера. Подобно тому, как четыре миллиарда лет назад распределенная на потоке независимых органических синтезов жизнь локализовалась в замкнутом объеме клетки, или как около трехсот тысяч лет назад распределенный на биоте разум приземлился на мозг, втиснулся во временные и пространственные границы одного биологического организма.

Понимаю, что большинство воспримет написанное как эзотерические заклинания. Но выше, хотя и впрямь немного образно, описаны акты инволюции темпоральной (распределенной во времени) сложности в пространственную, реализующие эволюционно-новационные скачки. Впервые идея распределенной во времени сложности была предложена в книге «Новации» (2007) и развернута в книге «Темпоральность и философия абсолютного релятивизма» (2011).

Коротко эту идею можно изложить так: функциональная сложность элементов мира, фиксированных сущностей, систем не сводится к их пространственной структуре, а реализуется также и процессуально, на потоке событий, как темпоральная, распределенная во времени сложность. К примеру, биологический организм отличается от косного механизма, обладающего лишь пространственной структурой, именно наличием темпоральной сложности, которую мы и называем жизнью. Или, к примеру, мы понимаем, что нет такой пространственно ограниченной, структурно определенной системы, как экономика, она как целостная существует только на потоке обменных актов, то есть обладает сугубо темпоральной сложностью, является исключительно темпоральной системой (в отличие от биологического организма, который является пространственно-темпоральной системой – у него есть тело). Так и язык является темпоральной системой, он существует как распределенный на потоке событий. Ну и если мы смогли разглядеть в нашем мире два типа сложности, то с легкостью сделаем шаг к гипотезе взаимного преобразования этих сложностей: темпоральная сложность может переходить (локализоваться, отображаться, редуцироваться) в пространственную, что фиксируется нами как эволюционные или творческие акты, а последовательная во времени дивергенция (специализация, адаптация) систем с пространственной сложностью может порождать новую темпоральную сложность (Темпоральность, 2011).

Вот и получается, что произошедшее с GPT-3.5 на языке событийной онтологии (Введение в темпоральную онтологию, 2014) и исходя из концепции преобразования темпоральной сложности в пространственную, следует описать так: LLM, пропустив через себя поток языковых событий, спонтанно реализовала структуру (фиксированный набор параметров), по функциональной сложности сопоставимую с темпоральной сложностью языка. Модель отзывается на текст так, как реагировал бы агент, погруженный в поток языка.

Ссылки

  1. Болдачёв А. В. Новации. Суждения в русле эволюционной парадигмы. — СПб.: Изд-во С.-Петерб. ун-та, 2007 – http://www.boldachev.com/novations_book/novations_cover/
  2. Темпоральность. Российский междисциплинарный семинар по темпорологии, МГУ, 2009, http://philosophystorm.org/boldachev/1343
  3. Событийная онтология, 2014 – http://philosophystorm.org/.../aleksandr-boldachev...
  4. Болдачев А. В. Введение в темпоральную онтологию // Кто сегодня делает философию в России. Том III / Автор составитель А. С. Нилогов. — М.: ООО «Сам Полиграфист», 2015 – http://philosophystorm.org/node/9599
  5. Болдачёв А. В. Темпоральность и философия абсолютного релятивизма. — М.: УРСС, 2011. – http://philosophystorm.org/node/13141
  6. Болдачёв А. В. От начала до конца истории. Сборник статей. — М.: Ridero, 2022
  7. Темпоральность: новая философия времени, 2012 – https://youtu.be/zSE9Z7uoTgU
  8. Событийная онтология, 2014 – https://youtu.be/mMsDLeeiKEo
  9. Темпоральная онтология и событийная логика, 2020 – https://youtu.be/gazUrDmjAOw
  10. Темпоральные системы и эволюция жизни и разума, 2021 -https://youtu.be/E9dH51QFQxk

ИИ и логика

С логикой у нас, конечно, беда. И как всегда – терминологическая: словом «логика» мы обозначаем несколько разных понятий. Когда читаешь «он повел себя нелогично», «логика предикатов второго порядка», «логика блондинки», то понимаешь, что речь идет о разных логиках.

В быту слово «логично» используется для фиксации закономерностей (если ваза упадет, то она разобьется), устойчивых схем (если в очках, то умный), паттернов поведения (если грязный, то пойдет в баню). То, что отношения объектов, вписанных в такие стандартные схемы, мы называем логическими, связано исключительно с особенностью говорения, необходимостью последовательного изложения ситуации с использованием причинных связок «если ..., то ...": «если стол стоит левее стула, то стул стоит правее стола» или «если стул стоит правее стола, то стол стоит левее стула». Логично? Логично, ответят все. Но ведь очевидно, что фиксация пространственного положения двух вещей вообще не про логику. Знание пространственных отношений лежит на уровне нашего опыта, здравого смысла. Да, текстовое описание причинно-следственных отношений, стандартных положений дел всегда будет выглядеть логичным. Но из этого не следует, что для получения этого логичного описания используется логический вывод, какое-то особое логическое мышление. Мы просто описываем последовательностью слов однозначно воспроизводимые, устойчивые связи элементов некоторого фиксированного паттерна, существующие вне и до говорения. И если мы вместо текстового сделаем графическое описание ситуации – нарисуем стол и стул, – то никому и в голову не придет сказать, что рисунок логичен, или, что для того, чтобы нарисовать стул правее стола, нужно некое логическое мышление.

Ситуация не меняется, когда речь идет о так называемых «логических рассуждениях": я хочу есть – надо сходить в магазин – у меня нет денег – займу у соседа и т.п. По сути, тут мы имеем дело с все теми же фреймами, паттернами, положениями дел, отношениями объектов, но не пространственными (как в случае со стулом и столом), а развернутыми во времени, то есть мы описываем текстом распределенные во времени структуры. Переход от «у меня нет денег» к «займу у соседа» не является логическим – это просто констатация устойчивой связки событий в стандартном паттерне действий, известном рассуждающему.

И совсем другое дело, когда утверждается, что «ни у человека в мозгу, ни внутри GPT-4 нет логического движка». Логический движок (reasoner) – это про логический вывод с использованием аксиом, теорем, правил, то есть про логику, которая предикатов второго порядка, дескриптивная, интервальная темпоральная и т.п. На вход логического движка подаются выражения/формулы на строго фиксированном языке конкретной логики, а на выходе имеем новые выражения на том же языке.

Итак, в разговоре о логике надо строго разделять две темы. (1) Умение устройства распознавать фиксированные паттерны, фреймы, положения дел, действия и способность устройства выразить отношение между элементами этих структур на том или ином языке. И здесь нет никакой логики, только знание предметной области и языка (в каких грамматических формах следует описывать отношения). (2) Наличие у устройства специального блока логического вывода, поддерживающего некоторую формальную логику (скажем, какой-либо вариант дескриптивной логики, как в движках OWL).

ИИ и сознание

Есть ли сознание у GPT-4? Возможно ли появление сознания у GPT-5, GPT-6 … или других моделей/платформ/сетей, которые придут им на смену?

На эти вопросы можно дать простой ответ, сразу закрывающий тему. Смотрите, я могу с уверенностью констатировать, что сейчас, когда я пишу этот текст, у меня есть сознание, то есть я нечто осознаю, мне нечто дано, я нечто различаю. Но при этом у меня нет никаких оснований утверждать, что сознание есть у других: я не могу это проверить, у меня нет доступа к чужому сознанию. Сознание абсолютно приватно. И если так (а это именно так), то с чего мы должны считать, что с GPT будет как-то иначе? Если у нас нет возможности выпрыгнуть за пределы своего сознания и подсмотреть есть ли оно у другого, то и вопрос о наличии сознания у других – людей, котов, амеб, GPT-4, грядущего супер-интеллекта – следует считать некорректным. Точка.

Ну, точка только для тех, кто использует слово “сознание» для обозначения пространства, в котором различено все, что различено; пространства, заполненного вещественными, психическими, ментальными объектами; пространства, началом системы координат которого является различающий субъект, – в общем, для обозначения мира субъекта. Все, что дано – дано в сознании, погружено в сознание. И понимаемое так, сознание безусловно приватно: наличие “картинки» сознания (данности мира) может констатировать только сам субъект. Чужие сознания недоступны. Можно сказать, что недоступны по определению. А тому, кто считает такое определение некорректным, можно предложить эмпирически опровергнуть абсолютную приватность сознания, сравнив вкус селедки, ощущаемый тобой, со вкусом селедки, ощущаемым соседом, или попытаться выяснить, отличается ли твое видение красного цвета от видения соседа (Не баг, а фича, 2022).

Но такое определение сознания – как мира субъекта, как пространства, в котором существуют различенные им объекты (Субъектная онтология, 2019) – предлагает нам еще один вариант ответа на вопрос о наличии сознания у GPT-4. Уже не с точки зрения принципа приватности сознания, а с позиции имманентной теории сознания (c). Базовая идея этой теории проста: если мне дан мир, в котором я различаю все, что различаю, на что реагирую, с чем совершаю действия (а он мне точно дан), и я замечаю, что различенные мной в моем мире-сознании нечто также на что-то реагируют, на что-то воздействуют, тогда логично предположить, что как и я, они (эти нечто) являются центрами своих приватных миров, в которых они различают то, на что реагируют и на что воздействуют. И эти «они» – не только люди, но и коты, муравьи, амебы и пр. У всех свой мир, наполненный различаемыми ими объектами. Но “они” – это и молекулы, атомы, электроны, которые также на что-то реагируют и на что-то воздействуют. У каждого нечто свой мир, сложность которого полностью определяется сложностью этого нечто. И поскольку свой, человеческий, мир мы называем словом “сознание», то ничто (кроме консервативности мышления) не мешает нам называть сознанием и миры муравья, молекулы, электрона. У электрона сознание электромагнитное, в нем он различает заряды и поля; у молекулы – химическое, в котором существует нечто кислотное и щелочное; а человек в своем сознании различает неимоверное количество типов вещей, а еще чувства, эмоции, мысли. И вот по имманентной теории сознания, согласно которой каждое нечто существует в своем приватном мире и каждому дано сознание по его сложности, так вот по этой теории и у нейронных сетей, да и у каждого нейрона безусловно есть свое сознание. Конечно, не сложное человеческое, с эмоциями и мыслями, а простое, в котором различены лишь определенного типа входные данные и выходные признаки. Правда, по поводу GPT-4 можно сказать, что его мир, его сознание будет посложнее, чем у предшественников – там сформировалась целостная понятийная сетка, позволяющая различать смысловые паттерны текстов, а не отдельные слова и фразы. (Здесь только следует отметить, что имманентная теория сознания это, конечно, вариант панпсихизма, только без всякого “психизма», то есть с пониманием того, что сознание не имеет никакого отношение как к психике, так и к мышлению, физиологии, химизму или электромагнетизму с гравитацией – все перечисленное это онтологические статусы объектов, различаемых субъектами разного уровня в своих сознаниях).

В заключение стоит только признать, что ответ про сознание GPT с позиции имманентной теории столь же бессодержателен, как и с точки зрения принципа приватности: если сознание есть у всего, то и проблемы его детектирования нет. Если нечто на что-то реагирует, значит в его сознании-мире это “что-то» существует. А как существует, никому знать не дано. Сознание приватно. Причем абсолютно.

P.S. Поскольку слово “сознание» используется не только в значении “приватный мир субъекта, пространство различения объектов», а и в десятках других значений, преимущественно привязанных к тем или иным проявлениям человеческой психики (Трудная терминологическая проблема сознания, 2019, Что такое сознание и нужно ли оно AGI, 2022), то за этим текстом последует еще один про то, зачем козе баян, а GPT – эмоции, личностные переживания, целеустремленность и прочая духовность.

Ссылки

  1. Трудная терминологическая проблема сознания, Studia Humana Volume 8:4 (2019) – http://philosophystorm.org/node/18258
  2. Болдачев А. В. Субъектная онтология и проблема совместной деятельности // Современная онтология IX: Сознание и бессознательное. – СПб.: ГУАП, 2019 – https://clck.ru/T6k4f
  3. Не баг, а фича, 2022 – https://habr.com/ru/articles/703382/
  4. Яблоко в себе, 2022 – https://habr.com/ru/articles/703350/
  5. Что такое сознание и нужно ли оно AGI? 2022 – https://www.youtube.com/live/-Y_71ggV9J0
  6. Есть ли сознание у муравья? 2014 – https://youtu.be/wOAuqweQzNM
  7. Объектная среда: Umwelt, visum, environ, 2015 – https://youtu.be/1rMD3zCyiac

Функция по желанию

На биологическом уровне новые функции формируются в результате длинной цепочки воспроизводства организмов и неотделимы от последних.

На социумном уровне новые функции производятся в виде внешних относительно организма артефактов и используются по необходимости: холодно – надеваю шубу, надо переплыть реку – беру лодку.

На последнем этапе социумной эволюции появились универсальные артефакты, функциональность которых можно менять по желанию. Но сами функции пока еще производятся и поставляются потребителям для установки на проигрывающий их артефакт.

Легко предсказать следующий шаг: у универсального артефакта останется одна универсальная функция – реализовывать произвольную индивидуальную потребность человека здесь и сейчас.

ИИ и эмоции

Собрались как-то звери на берегу моря и стали думать: а как бы нам создать искусственную жизнь (ИЖ), превосходящую биологическую. Одни говорят, мол, ИЖ-существо должно быть сверхсильным. Другие предлагают сделать его сверхбыстрым. Птицы, конечно же, про свое – пусть оно летает выше всех. А рыбы, ясное дело, топят за то, чтобы эта ИЖ-тварь обязательно могла доплыть до марианских глубин. В итоге сошлись на том, что всего перечисленного можно достичь только одним способом: сделать сверхсильные мышцы, сверхпрочные кости и беспредельно острые зрение, обоняние и т.п. … А чуть поодаль сидела обезьяна и прикручивала жилами камень к палке.

Вот так и мы сейчас, рассуждая об ИИ, не можем придумать ничего лучшего, чем наделить его нашими человеческими способностями, усилив последние префиксами супер и сверх. И плюс еще настаиваем, что ИИ никак не получится, если у него не будет тела. То есть, как и на заре цивилизации, мы опять впадаем в анимизм. Только теперь пытаемся приписать человеческие черты и цели не природным явлениям, а собственному IT-продукту. Для первобытного человека такой прием был вполне естественен. Но сейчас-то, когда мы вполне себе осведомлены о гормональных механизмах функционирования психики и о роли эмоциональных реакций в эволюции животных, экстраполяция антропоморфизма в будущее выглядит как минимум странно. Все высшие эмоции, целеполагания и моральные нормы, которыми мы хотим наделить ИИ, по сути, являются лишь проявлением животной и социальной природы человека, которые сформировались только и исключительно для его выживания. А железке-то это зачем? ИИ уже научился такому, до чего человеческие детеныши дотягиваются только годам к двадцати, а то и позже. И при этом обучение ИИ обошлось без слез, восторгов, ненависти, мечтаний, первой любви, разочарований. Психика – это базовая подсистема биологического организма. А ИИ не живой. И не надо его ни оживлять, ни очеловечивать. Он нам для другого нужен.

Ладно, говорят нам, эмоции можно пока оставить в стороне, но как же ИИ построит полноценную картину мира без тела, без того, чтобы ни траву не потоптать, ни камнем по камню не постучать? Ответ простой: человек уже прошел этап освоения предметных отношений и зафиксировал его результат в виде языка и текстов. Мир, в котором должен функционировать ИИ и объектами которого он должен оперировать, это мир науки, цифрового производства, сетевой коммуникации. И если у ИИ нет опыта хождения под стол и собирания пирамидок, то он не много потерял. Достаточно того, что он знает, что без такого опыта человек не может освоить язык и научиться читать-писать.

Здесь еще уместно заметить, что человек вообще-то довольно сомнительный образец для подражания: мыслительные способности формируются без гарантии, результаты мышления неустойчивы и невоспроизводимы, сильно зависят от эмоций, большинство мотиваций имеет животное происхождение (доминирование, удовлетворение биологических потребностей). Что было у природы, из того она и слепила Homo Sapiens. А нам-то зачем ИИ, созданный по образу и подобию человека с его животным багажом? К тому же, из того, что мышление у человека могло развиться только в результате целенаправленной предметной деятельности, сопровождаемой эмоциональным подкреплением, не следует, что это мышление не может функционировать в уже выстроенной языковой среде вполне автономно, без биологических подпорок. Тем более, и у людей лучшие образцы рационального мышления наблюдаются вне предметных сфер (в науке, философии, математике) и при условии дистанцирования мыслителя от психо-социальных мотиваций (хотя проблемы с неустойчивостью и плохой воспроизводимостью мышления остаются).

Вот и получается, что если мы представляем ИИ как инструмент для реализации деятельности в пространстве знаний, то не стоит обременять его нашими эмоциями и мотивациями. И уж подавно телом. ИИ не будет похож на наш биологический, социальный интеллект. Да и не интеллектом он будет вовсе (перечитайте притчу).

Сеть будущего

В последних записях я попытался рассказать о различных проблемах, связанных с прорывом на предметном поле искусственного интеллекта (все таки буду использовать этот термин, хотя напоминаю, что не нравится он мне). По ходу обсуждения таких тем, как авторское право, защита от фейков, грядущая сингулярность и др., я упоминал некоторые вполне конкретные технологические и архитектурные решения, которые должны не только помочь справиться с проблемами, порождаемыми ИИ в варианте ChatGPT, но и лечь в основу будущего “умного» цифрового пространства, которое придет на смену современному интернету, с его сайто-свалочной структурой.

Начнем с самого простого и очевидного решения: весь сетевой контент – графический, видео и, конечно же, текстовый – подписывается криптографическим ключом того, кто его загрузил. Выполнение этого требования фиксирует, с одной стороны, авторские права на контент (если он новый), с другой – ответственность за содержание контента (независимо от его происхождения – музыкой навеяло или ChatGPT нагенерил).

Далее, каждый размещенный в сети элемент контента имеет уникальный идентификатор, который служит его индивидуальным сетевым адресом (не привязанным ни к какому месту/сайту в сети). Уникальная идентификация прежде всего позволяет однозначно фиксировать отношения между единицами контента (ссылки, цитирование, комментирование и пр. ). Не говоря уже о том, что наличие уникальной идентификации решает проблему неуправляемого дублирования контента.

Взаимная связанность элементов контента, имеющих уникальные идентификаторы, по сути, образует семантическую сеть/граф с естественной тематической кластеризацией. Для унификации отношений между элементами сети используются словари и отраслевые стандарты.

Криптографическая подпись контента, а также применение в качестве уникального идентификатора хеша (криптографического “оттиска” единицы цифрового контента) обеспечивает проверку целостности данных, а их связанность через взаимные ссылки в графе – дополнительную защиту от фальсификации.

Уникальная идентификация единиц контента устраняет необходимость в такой сущности, как сайт, – место размещения контента, не контролируемое его авторами. Объемы памяти современных пользовательских устройств вполне обеспечивают децентрализованное хранение значительных массивов данных (плюс, конечно, специальные архивные узлы), а высокая скорость сетей обеспечивает быстрый поиск нужного контента по взаимным ссылкам в семантическом графе.

Выше была описана архитектура, интегрирующая в себе две современные технологии: KG (граф знаний) и DLT (технология распределенного реестра). Такой симбиоз обеспечивает: (1) децентрализованное хранение уникальных единиц контента, (2) их семантическую связанность, (3) криптографическую защиту от утери и фальсификации, (4) доказуемость авторства, (5) управление правами доступа. Принципиальным решением такой архитектуры является замена сайтоцентристской структуры интернета на юзероцентристскую: контент хранится децентрализовано в сети и компонуется в интерфейсную страницу только по конкретному запросу пользователя.

Однако предложенная архитектура полноценно реализуется только при включении в нее адаптивного ИИ-интерфейса, в качестве современного прототипа которого следует рассматривать большие языковые модели типа GPT-4. Именно отсутствие такого интерфейса, а также криптографических инструментов, поддерживающих уникальность и целостность контента, не позволили лет 10-15 назад реализоваться мечте основателя интернета Тима Бернерса-Ли о семантическом вебе. Интеллектуальный интерфейс обеспечивает: (1) проверку уникальности нового контента, (2) встраивание контента и его элементов в соответствующие кластеры семантического графа (классификация контента, выявление его отношений, извлечение фактов), (3) предварительное ранжирование контента по оригинальности и качеству и уточнение этих оценок на основе мониторинга действий пользователей, (4) поиск контента по запросам пользователей и представление его в интерфейсе, (5) проведение анализа данных, (6) помощь в создании нового контента, (7) создание и выполнение моделей бизнес-логики с участием пользователей и элементов контента.

Для поддержки описанных функций ИИ-интерфейс должен понимать естественный язык на уровне не ниже GPT-4 и перманентно доучиваться на новом контенте, при этом фиксировать связь полученных знаний с уникальными идентификаторами единиц контента в семантическом графе. Последнее, с одной стороны, решает проблему галлюцинации, то есть позволяет использовать в генерируемом ИИ тексте ссылки на верифицированные факты, а с другой – обеспечивает интеллектуальный поиск по семантическому графу. И еще, для полноценной интеграции в сеть ИИ не может иметь централизованную архитектуру и принадлежать юридическому лицу, он должен существовать как распределенный на всех устройствах, образующих сеть.

Итак, если коротко, сеть будущего представляет собой симбиоз (1) криптозащищенного децентрализованного хранилища, (2) семантического графа валидированных фактов и контента и (3) интегрированного в сеть ИИ.

Можно еще добавить, что все упомянутые технологии (кроме ИИ с распределенной архитектурой) уже существуют. Вопрос: что мешает реализации?

Ссылки

  1. Болдачев А. В. Архитектура на основе событийной семантики Открытые системы. СУБД, №03, 2021 – https://www.osp.ru/os/2021/03/13055996
  2. Философия эволюции и эволюция интернета – https://habr.com/ru/post/255745/
  3. WEB 3.0 — второй подход к снаряду – https://habr.com/ru/post/468557/
  4. Семантический браузер или жизнь без сайтов – https://habr.com/ru/post/472748/
  5. Knowledge Graph. Плюральность, темпоральность, деятельностный подход – https://habr.com/ru/post/474274/
  6. Субъектно-событийный подход к моделированию сложных систем – https://habr.com/ru/post/256509/
  7. Деятельность, документы и семантика – https://habr.com/ru/post/509990/
  8. Событийная онтология vs объектная – https://habr.com/ru/articles/706916/
  9. Как я учил ChatGPT – https://habr.com/ru/articles/715492/
  10. WEB 3.0 – Будущее интернета – https://youtu.be/Tc5Q8MuUEL0
  11. Темпоральная онтология и событийная логика – Семинар сообщества AGI – https://youtu.be/gazUrDmjAOw

Суперинтеллект и супержизнь

Сомнительность термина “суперинтеллект”, которым стремятся обозначить интеллект, превосходящий человеческий, традиционно я поясняю на примере отсутствия такого понятия, как супержизнь. Ведь действительно, нет ничего такого, что мы можем представить как некую особую жизнь, превосходящую биологическую. Нет никаких суперживотных, сверхживых существ. Понятно, что и человек таковым не является. Хотя с точки зрения животных он, конечно же, обладает суперспособностями: летает через океан и на Луну, опускается на дно Марианской впадины, слышит и видит сородичей, находящихся за горами и морями и т.п., и т.д. Но ведь с биологической точки зрения человек является лишь лысой обезьяной, уступающей другим животным практически по всем жизненно важным характеристикам: скорости, силе, остроте органов чувств. Ну и конечно, то, что обеспечивает человеку обладание упомянутыми суперспособностями, то есть технические устройства, никак нельзя назвать супержизненными. Это же просто железки. И вот, по аналогии с «супержизнью», получается, что нельзя говорить и о каком-то суперинтеллекте. Интеллект – это то, что принадлежит человеку, это его свойство. А то, что превзойдет интеллект, уже не будет интеллектом. Хотя и будет обеспечивать выполнение сверхчеловеческих, сверхинтеллектуальных функций. Вот так, на примере сопоставления двух эволюционных переходов – от жизни к социуму и от социума к постсоциуму – я и объясняю бессмысленность термина «суперинтеллект».

Есть еще один способ обосновать несостоятельность термина “суперинтеллект», а заодно и “искусственный интеллект”: посмотреть на интеллект и на жизнь как на формы/способы реализации некоторых функций, а не как на особые функции. Бегать, плавать, летать можно с помощью «жизни», то есть биологической силы, а можно с помощью различных механизмов. Вычитать и умножать можно с помощью интеллекта, а можно и на калькуляторе. С помощью механизмов и электроники – быстрее и надежнее. Но ведь понятно, что достигается это преимущество вовсе не за счет каких-то супержизни и суперинтеллекта или даже искусственного интеллекта. Просто это делается другими способами – не «жизненными» и не интеллектуальными. И понятно, что если интеллект это лишь способ решения задач – именно конкретный человеческий способ, – то все другие способы, особенно новационные, не стоит называть интеллектуальными. Можно сказать, что ИИ-специалисты занимаются не чем иным, как созданием неинтеллектуального способа решения задач, которые раньше человек решал только с помощью своего интеллекта.

Но есть еще один подход к объяснению неадекватности термина “суперинтеллект» – от решаемых им задач. Давайте рассмотрим цепочку так называемых интеллектуальных новаций: каменный топор, колесо, паровая машина, телевизор, ChatGPT (как последнее звено в цепочке). Мы видим вполне закономерную последовательность. Ускоряющуюся, но без всплесков и прорывов. Все как по продуманному плану. Ядерный реактор не был изобретен в средние века, а цифровые микросхемы как раз подоспели к началу бума персональных компьютеров. И это я к тому, что все эти интеллектуальные новации создавались человеческими интеллектами, которые по своему уровню, конечно же, соответствовали уровню новаций. Никто ничего не придумал раньше времени. И можно с уверенностью сказать, что даже если и был в истории социума человек с суперинтеллектом, то мы об этом все равно не узнали бы. Интеллект в каждый исторический период решает только те задачи, которые могут быть решены. Высший уровень интеллекта определяется не какими-то конструктивными особенностями его носителя, а только и исключительно задачами, необходимость и возможность решения которых предопределены текущим состоянием социума. Вот и получается, что если кто-то заявит, что у него есть суперинтеллект (собственный или искусственный), то это будет просто невозможно проверить. Если, конечно, не выдавать за суперинтеллектуальные способности сверхбыстрые счет или подбор следующего токена.

 

ВложениеРазмер
chatgpt_i_my.pdf768.51 КБ