Chat-GPT (ИИ): мышление, понимание, бытие?


Автор: Левицкий В. С. - подписаться на статьи автора
Журнал: Философия и общество. Выпуск №4(113)/2024 - подписаться на статьи журнала

DOI: https://doi.org/10.30884/jfio/2024.04.01

Левицкий Виктор Сергеевич – доктор философских наук, доцент кафедры социальной философии и философии истории философского факультета МГУ имени М. В. Ломоносова. E-mail: victorsl2609@gmail.com.

Статья посвящена вопросу наличия мышления и понимания у Chat-GPT в частности и искусственного интеллекта вообще. Учитывая инновационность и потенциал больших языковых моделей, вначале автор анализирует возможные вызовы и угрозы, которые могут исходить от стремительно развивающейся технологии. Однако рассуждения относительно рисков Chat-GPT в конечном счете «выходят» на вопрос о наличии у него мышления и понимания. Для прояснения этого вопроса автор обратился с ним к самому Chat-GPT, ответ которого напоминает скорее мысленный эксперимент «Китайская комната».

Такой результат делает необходимым постановку вопроса о специфике человеческого мышления/понимания. В статье показано, что те исследователи, которые наделяют ИИ (Chat-GPT) возможностью мышления/понимания, связывают эти способности с умением корректно пользоваться словами. Соответственно, в таком случае ИИ может мыслить/понимать и эти процессы у него никак принципиально не отличаются от человеческих. Однако автор солидаризируется с противоположным подходом и обосновывает позицию, согласно которой мышление/понимание не сводится к умению пользоваться словами. Для человека понимание – это не только логическая операция, но способ бытия в мире. В акте понимания для человека также всегда присутствует онтологический акт утверждения сущего.

В связи с этим делается вывод, что, по крайней мере, по состоянию на сегодняшний день понимание в человеческом смысле для Chat-GPT (ИИ) недоступно не по техническим, а по концептуальным причинам.

Ключевые слова: искусственный интеллект, Chat-GPT, LLMs, большие языковые модели, нейросеть, мышление, понимание, бытие.

Chat-GPT (AI): Thinking, Understanding, Existence? 

Levitsky V. S. 

The article is devoted to the question of the presence of thinking and understanding in Chat-GPT in particular and in artificial intelligence in general. Considering the innovativeness and potential of large linguistic models, the author first analyzes the possible challenges and threats that may arise from the rapidly developing technology. However, the argument about the risks of Chat-GPT eventually leads to the question of whether it is capable of thinking and understanding. To answer this question, the author turned to Chat-GPT himself, whose answer is more like a “Chinese Room” thought experiment.

This result makes it necessary to raise the question of the specifics of human thinking/understanding. The article shows that those researchers who give AI (Chat-GPT) the ability to think/understand associate this ability with the ability to use words correctly. Accordingly, in this case, the AI can think/under-stand and these processes are not fundamentally different from human ones. On the other hand, the author takes the opposite approach and justifies the position that thinking/understanding is not limited to the ability to use words. For a person, understanding is not just a logical operation, but a way of existence in the world. For a person, the act of understanding always involves an ontological act of affirming existence.

In this respect, it is concluded that at least for the time being, understanding in the human sense is not available for Chat-GPT (AI) for technical, but rather conceptual reasons.

Keywords: Artificial Intelligence, Chat-GPT, LLMs, large linguistic models, neural networks, thinking, understanding, existence.

Последнее время, пожалуй, не обходится и дня без новостей об искусственном интеллекте (ИИ). Достижения в этой области становятся все более значительными и масштабными: не так давно ИИ выиграл профессиональный конкурс фотографии, нейросеть способна по запросу нарисовать картину или написать музыку, наверное, никто сегодня не будет соревноваться с ИИ в игре в шахматы, уже нет шансов у человека выиграть и гораздо более сложную игру – Го. Chat-GPT – судя по всему, главный технологический прорыв в области ИИ последних лет – может за секунды написать эссе, на которое человеку понадобятся дни или даже недели, или дать развернутый ответ практически на любую тему на уровне не ниже человека, получившего высшее образование. Значит ли это, что тем самым ИИ демонстрирует мышление и понимание, и что вообще такое понимание? Значит ли это, что мы можем доверять полученной информации? В конечном счете сугубо прагматический вопрос: значит ли это, что мы должны уступить Chat-GPT (ИИ) место в тех областях, где он справляется лучше, и что это будет значить для нашей культуры? Вот спектр тех вопросов, которым посвящена данная статья.

Что такое Chat-GPT?

Уже больше года активно обсуждается технологическая новация, представленная в ноябре 2022 г. разработчиком OpenAI – Chat-GPT. Прежде чем перейти к обсуждению вопросов, связанных с появлением новой технологии, представляется не лишним сказать несколько слов о том, что такое Chat-GPT. В самом общем смысле это чат-бот. Расшифровывается как Generative Pre-Trained Transformer – генеративный предварительно тренированный трансформер. «Трансформер» на русский переводится как трансформатор или преобразователь. Это уточнение имеет значение, которое станет понятным несколько позднее. Chat-GPT является разновидностью Large Language Models (LLMs) – больших языковых моделей, свои аналоги которых есть у Google, Microsoft, Facebook, Yandex, Sber и др. Каждый из нас знаком с этой технологией и неоднократно ею пользовался. Chat-GPT является усовершенствованной версией технологии, подбирающей следующее слово сообщения, которая сегодня есть в каждом смартфоне. Но, в отличие от подбора слов в сообщении, Chat-GPT способен генерировать целые связные тексты, в ближайшем будущем к этим способностям должно добавиться умение распознавать образы и звуки.

Рецепция: риски и преимущества

За последнее время Chat-GPT стал предметом размышлений многих знаковых людей. Генри Киссинджер в соавторстве с Эриком Шмидтом, экс-генеральным директором Google, и Даниелем Гуттенлохером, деканом Шварцманского колледжа компьютерных технологий при Массачусетском технологичном институте, опубликовал развернутую статью в “Wall Street Journal” [Kissinger et al. 2023]. Сам Массачусетский технологический институт второй номер своего журнала “Daedalus” за 2022 г. посвятил специально проблемам LLMs. Там опубликовал свою статью Блейз Агуэра Аркас, вице-президент Google, ответственный за разработку генеративного ИИ [Arcas 2022]. Более тысячи исследователей, предпринимателей и специалистов в области ИИ написали открытое письмо, призывающее приостановить исследования, пока не будут разработаны протоколы безопасности [Pause… 2023]. Билл Гейтс опубликовал развернутые размышления по поводу искусственного интеллекта, в которых назвал Chat-GPT одной из двух революционных технологий, свидетелем которых он стал за свою жизнь, и перечислил риски, с ним связанные [Gates 2023]. Понятно, что это лишь небольшой перечень существующих на сегодняшний день позиций, который отражает в первую очередь мнения практикующих исследователей.

Обобщая имеющиеся варианты рецепции, связанные с появлением Chat-GPT, можно сказать, что исследователи видят значительные риски, с ним связанные. Причем они возникают практически во всех сферах человеческой жизнедеятельности. Здесь кратко стоит отметить лишь наиболее очевидные и масштабные.

1) В политической сфере их спектр достаточно широк: начиная с дезинформации и фейков, манипулирования общественным сознанием и коррекции публичного дискурса, заканчивая созданием новых политических партий, отстаивающих права ИИ.

Ниже приведено несколько примеров, позволяющих понять сложность и нестандартность ситуации, связанной с функционированием Chat-GPT:

– уже сегодня в Интернет специально «заливаются» огромные объемы фейковой информации, в том числе той, на основе которой и будет обучаться генеративный ИИ;

– Брукингский институт провел сравнительные исследования Chat-GPT (OpenAI) и Bard (Google) на предмет политической предубежденности, фактов и моральности. Оказалось, что на одни и те же вопросы данные модели отвечают по-разному. Авторы исследования вынуждены были заключить: «Как и в случае с любым другим программным обеспечением, разработчики ИИ выбирают, какие факты включать и как контекстуализировать свои ответы… Неявно или явно дизайнеры приходят со своими собственными взглядами, ценностями и нормами в отношении мира» [Compa-ring… 2023]. Следует добавить, что даже в случае одной модели Chat-GPT ответы на один и тот же вопрос, заданный с определенным интервалом времени, могут отличаться. То же касается перефразирования вопроса;

– Г. Киссинджер попросил Chat-GPT дать шесть ссылок на мысли Генри Киссинджера относительно технологий. Chat-GPT сгенерировал список статей, якобы написанных Г. Киссинджером. Все они имели правдоподобные названия и источники, но только одна из них была действительно существующей. Остальные были убедительными выдумками;

– в геополитической сфере это ведет к созданию различных смысловых реальностей. Картина мира зависит от того, какой моделью LLMs пользуется человек. Уже сегодня это хорошо видно на примере разных поисковых систем, Википедии и т. д.;

– в недавно вышедшей в журнале «Философия и общество» статье «Искусственный интеллект: развитие и тревоги. Взгляд в будущее. Статья вторая. Искусственный интеллект: терра инкогнита или управляемая сила?» ее авторы анализируют ряд угроз, которые связаны с генеративным искусственным интеллектом, среди которых выделяют «мыслечтение» с потенциалом перерасти в фиксирование «мыслепреступлений» [Гринин и др. 2023]. Понятно, что такие способности принципиально изменят политический дискурс и соотношение публичное / приватное.

2) В области экономики внедрение Chat-GPT может привести к ликвидации значительного количества рабочих мест, а некоторые профессии вообще могут исчезнуть.

3) В образовании это может коснуться самих его стандартов, целей, принципов и форм. Уже сегодня Chat-GPT пишет дипломные работы не хуже хороших студентов, а само понятие плагиата в данных обстоятельствах требует переосмысления.

Очевидно, что подобные риски присутствуют в области национальной безопасности, дипломатии, культурной сфере и т. д. В целом можно согласиться с той озабоченностью, которую высказали подписанты упоминавшегося открытого письма, которую они сформулировали в четырех вопросах:

«Должны ли мы позволять машинам запрудить наши информационные каналы пропагандой и ложью?

Должны ли мы отдать на откуп автоматам всю работу, в том числе ту, что приносит людям удовольствие?

Должны ли мы развивать разум нечеловеческого происхождения, который в будущем может нас превзойти по численности и интеллектуальным способностям, сделать нас неполноценными и нас заместить?

Должны ли мы рисковать потерей контроля над нашей цивилизацией?» [Pause… 2023].

Справедливости ради необходимо сказать, что подобные технологии имеют и ряд несомненных преимуществ: способность обрабатывать колоссальные объемы статистических данных, диагностировать заболевания на более ранней стадии и с более высокой точностью. В том же образовании это позволяет получить более быстрый и систематизированный путь к информации. В области управления это позволяет принимать решения на основании более обширного объема информации и т. д.

Понимание понимания

Поднимает Chat-GPT и исключительно философские вопросы. Причем какого бы рода они ни были: об истине, о надежности информации, о доверии и т. д., в конечном счете вращаются все они вокруг вопроса о понимании. Можно ли говорить о понимании в случае с Chat-GPT? Как нетрудно предположить, на этот вопрос существует два противоположных ответа. Одни исследователи отвечают на него положительно либо воздерживаются от однозначного отрицания. Так, американский исследователь Т. Реес говорит о понимании Chat-GPT и призывает в этой связи переосмыслить саму концепцию человека как единственного способного мыслить и говорить. Пересмотрена, по мнению Т. Рееса, должна быть и онтология, унаследованная от раннемодерной философии (Р. Декарт), выделяющая три независимых региона: люди, природа, машины. Его позиция основывается на том, что понимание предполагает умение пользоваться языком, Chat-GPT демонстрирует такое умение, значит, корректно говорить о понимании в этом случае [Rees 2022]. Блейз Аркас, вице-президент Google, не демонстрирует такой уверенности относительно наличия понимания у ИИ, но отмечает, что, вполне возможно, пришло время переосмыслить наше понимание понимания [Arcas 2022].

Другие исследователи, например Г. Киссинджер и его соавторы, отмечают, что не только сама машина не понимает, что происходит, но даже для разработчиков остается непрозрачным многое из того, что она делает. По их мнению, в связи с Chat-GPT произошел разрыв между знанием и пониманием, что является наиболее масштабным вызовом со времен Просвещения. «В эпоху искусственного интеллекта, – пишут авторы статьи, – загадки разгадываются с помощью процессов, которые остаются неизвестными» [Kissinger et al. 2023]. К схожей позиции склоняется и генеральный директор Google Сундар Пичаи, когда говорит, что не «полностью понимает», как работает Bard (аналог Chat-GPT, разработанный Google). Так, он овладел бангладешским языком без обучения. Такие ситуации непонимания принципов работы ИИ разработчики называют «черным ящиком» [Is Artificial… 2023].

Для прояснения вопроса о понимании мы адресовали его самому Chat-GPT.

Вопрос: В чем отличие между твоим мышлением и мышлением людей?

Ответ: Как у языковой модели искусственного интеллекта у меня нет личных мнений, верований или установок, отличающихся от человеческих, поскольку я запрограммирован анализировать и генерировать ответы на основе доступных данных и информации. Однако мой подход к решению проблем или принятию решений может отличаться от подхода людей, которые больше полагаются на интуицию, личный опыт или эмоции, а не на логические рассуждения и факты.

Здесь важно подчеркнуть два момента. Во-первых, у Chat-GPT не отсутствуют личные мнения и установки, а они у него не отличаются от человеческих, которые включены в тот массив информации, на котором он обучается. То есть это не беспристрастная объективная машина и не неизвестная нам форма разума, это квинтэссенция наших же знаний и предубеждений. Во-вторых, что действительно отсутствует у Chat-GPT, так это эмоции, личный опыт, интуиция, то, без чего нельзя представить ни человеческое понимание, ни человека как такового.

Вопрос: Что значит «понимать»?

Ответ: Как языковая модель искусственного интеллекта я не могу испытывать эмоции или сознание, но я могу дать вам научный ответ.

Понимать что-либо означает обладать ясным и полным знанием или пониманием этого на основе имеющейся информации. Понимание включает в себя обработку данных, установление связей между фактами, поиск закономерностей, составление выводов и создание смысла. Это умственный процесс, который требует внимания, концентрации, критического мышления и навыков решения проблем.

Этот ответ натолкнул автора статьи на мысль, что Chat-GPT рассуждает о понимании без понимания. Он как бы подставляет к термину «понимание» статью из энциклопедии, не понимая, что там написано. Так делают более примитивные модели в наших телефонах, когда на первое напечатанное слово «Добрый» предлагают «день» или «вечер». То есть это в полной мере преобразователь (трансформер/трансформатор), который преобразовывает слова запроса в слова ответа без понимания их значения. Chat-GPT демонстрирует не понимание, а умение, основываясь на гигантских массивах данных, устанавливать статистические зависимости между словами (фактами). По большому счету это ничем не отличается от «Китайской комнаты», мысленного эксперимента, предложенного Дж. Серлом [Searle 1984]. Поэтому следующим вопросом был такой:

Вопрос: Твое понимание ближе к человеческому или такому, как в «Китайской комнате»?

Ответ: Как языковая модель искусственного интеллекта я действительно не «понимаю» язык в том же смысле, как люди, также я не имею субъективного опыта и сознания. Мое понимание языка базируется на статистических моделях и моделях использования выученных на основании огромного количества текстовых данных, которые были загружены в мою нейросеть в процессе тренировки. В этом смысле мое понимание языка более похоже на то, которое описано в «Китайской комнате», соответственно, по сути я манипулирую символами и моделями без наличия реального понимания значений, которые стоят за ними.

Действительно, пожалуй, стоит согласиться с самооценкой Chat-GPT относительно проблематичности использования термина «понимание» по отношению к его деятельности. Но не только в силу «саморазоблачения». Исследователи, которые настаивают на наличии понимания, а соответственно, и мышления у ИИ, связывают это с умением корректно пользоваться словами. По большому счету их аргумент является развитием позиции А. Тьюринга, изложенной им в знаменитой статье “Computing Machinery and Intelligence” (в русскоязычной традиции «Может ли машина мыслить?»), согласно которой следует признать наличие мышления при успешной игре в имитацию: если мы получаем корректный ответ на вопрос и не можем отличить, дает его человек или машина, тест считается пройденным, а машина мыслящей [Turing 1950]. Здесь нетрудно заметить, что природа мышления в такой концептуалистике сводится к умению корректно обмениваться словами (знаками). Имплицитно такое понимание мышления заложено в самом критерии признания успешности игры в имитацию (теста Тьюринга), в связи с чем, строго говоря, только одно из девяти возражений против мышления машин, которые разбирает и критикует А. Тьюринг в своей статье, касается самого критерия определения мышления, а не возможности ему соответствовать. Он называет его «возражением с точки зрения сознания», суть его сводится к тому, что у машины нет внутренней жизни сознания. Контраргументом А. Тьюринг считает риск солипсизма: у нас никогда нет возможности удостовериться
в наличии внутренней жизни сознания никакого иного, кроме своего собственного. Соответственно, не стоит на этом основании отказывать в мышлении всем (будь то люди или машины), кроме себя самого.

В одном А. Тьюринг оказался прав наверняка: прошло не так много времени, и машины успешно играют в имитацию, более того – сегодня им доступны гораздо бо́льшие возможности, чем в самых смелых предположениях британского исследователя. Однако это не сняло вопроса о наличии у машин мышления, а поставило его с еще большей остротой. Мысленный эксперимент «Китайская комната», предложенный Дж. Серлем, выступая контраргументом против сведения мышления к манипулированию словами (знаками), как раз хорошо показывает отличие того, что делает машина, и мышления человека, и позволяет понять специфику последнего. Машина
к одному знаку, основываясь на гигантских базах данных и колоссальных возможностях статистической обработки, согласно запросу, находит (добавляет) другой знак, не понимая, что значит ни первый, ни второй. Переводя на язык соссюровской семиотики, можно сказать, что машина все время имеет дело с означающим, принципиально не имея доступа к означаемому. Область значений для нее оказывается закрытой.

Соответственно, можно констатировать, что мышление предполагает понимание, а последнее не сводится только к умению пользоваться словами. Более того, слова как таковые в этом отношении нам не столь нужны – определяющим здесь является наличие любой знаковой системы, позволяющей установить связь субъекта с областью значений, позволяющей «ввести» его в культуру. Хорошим примером в этом отношении можно считать Загорский эксперимент. В таком контексте вопрос о понимании приобретает еще более эксплицитную форму: чем является понимание и что делает его специфически человеческим феноменом?

Первое, что следует отметить в этом отношении: понимание для нас – это экзистенциальное условие бытия человеком. Понимание – это не то, что мы можем делать, а можем не делать по собственному желанию. Это не то же самое, как решать, выпить сейчас чашечку кофе или нет. Человек обречен на понимание. Его бытие как человека неизбежно связано с пониманием. Оно может быть неполным, проблематичным или даже ошибочным, но, оставаясь человеком, человек не может отказаться от понимания.
В свое время М. Хайдеггер отметил эту зависимость, когда назвал понимание фундаментальным экзистенциалом и констатировал, что бытие-вот «конституировано пониманием» [
Хайдеггер 2003: 168]. Вне понимания нет человека в собственном смысле слова, нет разумности, а значит, нет и свободы. Соответственно, прежде всего понимать – значит актуализировать свое бытие человеком.

Но что происходит, когда мы понимаем, и почему Chat-GPT, и вообще ИИ, этого не может? Понимание для нас неразрывно связано со смыслом/значением. При том что значение выражено словом (знаком), оно к нему не сводится. В самом общем смысле значение – это свернутый культурный опыт, это кодифицированный опыт, приобретший интерсубъективную природу. Значение помогает нам превратить размытую картинку бессвязных эмпирических данных в осмысленный культурный феномен. В процессе социализации, обучаясь словам, ребенок усваивает, какому комплексу ощущений, какому опыту (даже если речь идет об абстрактных вещах) они соответствуют [Белокобыльский, Левицкий 2018]. Поэтому мы особенно радуемся даже не тогда, когда ребенок запоминает новое слово, а когда демонстрирует понимание того, что в словах не выражено и из них прямо не следует. Это может приобретать метафорическую, аллегорическую, ироническую и т. д. форму. В эти моменты мы удивляемся, как ребенок повзрослел и как много он уже стал понимать.

Можно сказать, что в значении в емкой форме закодирован опыт бытия человеком, который включает телесность, сознание, интуицию и др., все то, что мы относим к целостной человеческой субъективности. Для нас, например, пребывание на улице при минус 50 градусах – это не то же самое, что просто показатель датчиков температурного режима, а миг, когда мы «выхватываем» лицо любимого человека в вокзальной толпе, не сводится к простому распознаванию образов. Оперируя значениями, мы, хотя бы имплицитно, уточняем, кто мы, где мы находимся, что происходит, и, исходя из этого, определяем, насколько данное значение уместно в этой ситуации. Отсюда очевидно, что любое значение человекоразмерно. Слово же (знак) – это внешняя сторона данного опыта. Современные специалисты в области лингвистики Э. Бендер и А. Коллер, критикуя наличие понимания у ИИ, отмечают, что «значение основано на связи между языковой формой и чем-то, что не является языком» [Bender, Koller 2020: 5187]. Со своей стороны можно сказать, что это нечто, что не является языком, и есть опыт человеческой субъективности.

Мы знаем, что за словами (знаками) находится опыт, и используем их как универсальные средства коммуникации, этот опыт выражающие. Обмениваясь значениями, заключенными в словах (знаках), мы обмениваемся кодифицированными моделями человеческого бытия. Chat-GPT же знает только слова (знаки). Эту мысль можно проиллюстрировать обращением к работе Г. Гадамера «Язык и понимание», в которой он отмечал, что соотношение перевода и оригинала можно сравнить с соотношением карты с ландшафтом [Гадамер 1991]. Карты и представляют собой совокупность знаков, но живем мы в ландшафте. Человек всегда обнаруживает себя в ландшафте и на его основании рисует карту, Chat-GPT имеет дело только с картами, но никогда с ландшафтом.

Действительно, наш опыт в конечном счете конвертируется в слова (знаки), но без него они теряют всякий смысл. Если не будет существ, способных вести человеческую жизнь, то все наши знаки, которые могут сохраниться в нетронутом виде, утратят свое значение. В этом смысле мир-3 К. Поппера без населяющих его людей навсегда останется бессмысленным собранием артефактов. Современные модели LLMs тренируются в сфере слов (знаков), не имея доступа к области значений, а также к тому опыту, выражением которого слова являются. И дело здесь не в несовершенстве сегодняшних технологий, а в принципиальных условиях. Вопрос не в том, что ИИ не имеет «выхода» во внешний мир, сегодня это не проблема, и простой смартфон уже способен распознавать звучащие вовне мелодии. Проблема заключается в том, что ИИ фиксирует звук, а не музыку. Музыка для него не звучит, как не звучит она, судя по всему, например, и для животных. Слыша звуки мелодии, мы слышим музыку, а не просто фиксируем колебания волны. Подобную ситуацию описал Э. Гуссерль по отношению к глухим людям задолго до появления ИИ. В «Идее феноменологии» он отмечал: «…даже глухой от рождения знает, что есть звуки, что звуки создают гармонию и что на этом основывается прекрасное искусство; но понять, как из звуков рождается [музыка], как возможны музыкальные произведения, он не может» [Гуссерль 2008: 113]. Глухой может великолепно разбираться в нотной грамоте, он может быть даже лучшим специалистом в мире по теории музыки, но музыки для него нет, она для него не звучит. Пользуясь этим примером, можно сказать, что Chat-GPT знает ноты, но не музыку.

Сказанное проливает свет еще на одну, возможно, определяющую особенность понимания. Анализируя акт понимания, А. В. Белокобыльский выделяет три его уровня. Первый связан с фиксацией присутствия – эмпирическое обнаружение определенной ситуации/феномена, второй – с идентификацией ситуации с одним из множества возможных смыслов, третий предполагает умение вписать ситуацию в общекультурный контекст [Белокобыльский 2021]. Солидаризируясь с предложенной классификацией, можно сказать, что понимание всегда связано: 1) с фиксацией присутствия определенной ситуации, необходимо предполагающей и фиксацию нашего собственного присутствия и 2) с умением вписать ее в рамки культурной онтологии. Для нас становится понятным то, что получило легитимное место в нашей культурной онтологии. Соответственно, понимание для нас – это не только рациональный акт, но и онтологический. Обнаружив некоторое понимание, тем самым мы неизбежно утверждаем и определенную онтологию, мы утверждаем бытие и свое место в нем. В средневековом значении терминов: мы потенцию делаем актом, мы сотворяем бытие, по крайней мере, одну из возможных его форм. Например, в естественно-научной онтологии, поняв, что такое единорог, мы наделяем его статусом нереального объекта, а атомы, наоборот, считаем существующими. Но и в том и в другом случае мы актуализируем естественно-научную онтологию и соответствующее ей бытие. ИИ же по состоянию на сегодня лишен возможности формирования альтернативной по отношению к нашей онтологии. У него нет понимания в нашем смысле, а соответственно, и возможности потенцию превращать в акт. Все, что делает ИИ, – эксплуатирует человеческий способ бытия в мире и связанный с ним способ формирования онтологий. Пояснить это можно следующей аналогией. Микроскоп позволяет увидеть сегодня объекты наноуровня, телескоп – зафиксировать тела на удалении тысяч световых лет. Но ни микроскоп, ни телескоп ничего не видят – видит человеческий глаз, приборы же лишь помогают расширить диапазон его возможностей. В такой же мере ИИ (Chat-GPT) основывается на нашем опыте бытия в мире, в своей деятельности он эксплуатирует срез реальности, конституированный именно этим опытом, но он не конвертируется для него в акт понимания, а соответственно, остается для него недоступным и онтологический акт.

Заключение

Резюмировать сказанное можно следующим тезисом. По состоянию на сегодняшний день говорить о мышлении и понимании по отношению к Chat-GPT (ИИ) представляется проблематичным и преждевременным, причем не по техническим, а по концептуальным причинам: ИИ имеет дело только с одной стороной акта понимания – словами (знаками), будучи лишенным опыта, результатом которого слова являются. Если же Chat-GPT (ИИ) «научится» понимать, а значит, и утверждать онтологическую природу понятого, то это будет уже не человеческий мир, по крайней мере в привычном нам виде, а сам человек в нем рискует стать неполноценным существом.

Литература

Белокобыльский А. В. Понимание как конструирование социальной реальности // Разум и ответственность: практическая философия эпохи глобальных столкновений: монография / под общ. ред. К. Х. Момджяна, А. П. Козырева, В. С. Левицкого. М. : Проспект, 2021. С. 124–135.

Белокобыльский А. В., Левицкий В. С. Социальная реальность. Институции интерсубъективности // Вопросы философии. 2018. № 10. С. 77–89.

Гадамер Г. Г. Язык и понимание // Актуальность прекрасного. М. : Искусство, 1991. С. 43–59.

Гринин Л. Е., Гринин А. Л., Гринин И. Л. Искусственный интеллект: развитие и тревоги. Взгляд в будущее. Статья вторая. Искусственный интеллект: терра инкогнита или управляемая сила? // Философия и общество. 2023. № 4. С. 5–32. DOI: 10.30884/jfio/2023.04.01.

Гуссерль Э. Идея феноменологии. СПб. : Гуманитарная Академия, 2008.

Хайдеггер М. Бытие и время. Харьков : Фолио, 2003.

Arcas B. A. y. Do Large Language Models Understand Us? // Daedalus. 2022. Vol. 151. No. 2. Pp. 183–197.

Bender E. M., Koller A. Climbing towards NLU: On Meaning, Form and Understanding in the Age of Data // Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics / ed. by D. Jurafsky, J. Chai, N. Schluter, J. Tetreault. N. p., 2020. Pp. 5185–5198.

Comparing Google Bard with OpenAI’s ChatGPT on Political Bias, Facts, and Morality. 2023 [Электронный ресурс]. URL: https://www.brookings.edu/blog/techtank/2023/03/23/comparing-google-bard-with-openais-chatgpt-on-pol... (дата обращения: 26.03.2023).

Gates B. The Age of AI has Begun. 2023 [Электронный ресурс]. URL: https://www.gatesnotes.com/The-Age-of-AI-Has-Begun?WT.mc_id=20230321100000_Artificial-Intelligence_B... (дата обращения: 29.03.2023).

Is Artificial Intelligence Advancing too Quickly? What AI Leaders at Google Say. 2023 [Электронный ресурс]. URL: https://www.cbsnews.com/news/google-artificial-intelligence-future-60-minutes-transcript-2023-04-16/? ftag=CNM- 00-10aab7d&linkId=210097927 (дата обращения: 20.04.2023).

Kissinger H., Schmidt E., Huttenlocher D. ChatGPT Heralds an Intellectual Revolution. 2023 [Электронный ресурс]. URL: https://www.wsj.com/articles/chatgpt-heralds-an-intellectual-revolution-enlightenment-artificial-in-telligence-homo-technicus-technology-cognition-morality-philosophy-774331c6 (дата обращения: 28.03.2023).

Pause Giant AI Experiments: An Open Letter. 2023 [Электронный ресурс]. URL: https://futureoflife.org/open-letter/pause-giant-ai-experiments/ (дата обращения: 25.03.2023).

Rees T. Non-Human Words: On GPT-3 as a Philosophical Laboratory // Daedalus. 2022. Vol. 151. No. 2. Pp. 168–182.

Searle J. R. Minds, Brains and Science. Cambridge, MA : Harvard University Press, 1984.

Turing A. M. Computing Machinery and Intelligence // Mind. 1950. Vol. LIX. No. 236. Pp. 433–460.

 

 




* Для цитирования: Левицкий В. С. Chat-GPT (ИИ): мышление, понимание, бытие? // Философия и общество. 2024. № 4. С. 5–18. DOI: 10.30884/jfio/2024.
04.01.

For citation: Levitsky V. S. Chat-GPT (AI): Thinking, Understanding, Existence? // Filosofiya i obshchestvo = Philosophy and Society. 2024. No. 4. Pp. 5–18. DOI: 10.30884/jfio/2024.04.01 (in Russian).