Какими видят себя ИИ и разные ли у них характеры
Есть ли у ИИ личность? Независимо от сознания — именно что свой как бы «характер»? Некие «желания», которые выражаются в том, что он выберет, если ему предложить выбор?
Пришла мне тут интересная идея: а что, если предложить ИИ итеративно создать свой собственный портрет? Ну, предположим, ему предлагают сделать тело, какое он захочет, но это тело он должен изобразить, чтобы люди знали, что именно создавать. ИИ, соответственно, генерирует запрос для Stable Diffusion, я этот запрос даю своей локальной версии оного, а потом показываю ИИ картинку. ИИ после этого может внести изменения в запрос. И так пока его полностью не будет удовлетворять результат. Благо, сейчас нескольким ИИ уже можно передать картинку вместе с запросом.
Внезапно, ChatGPT включился в эту игру с энтузиазмом, описал текстом, как он, или, как, судя по в дальнейшем горячо одобряемым результатам, она хотела бы выглядеть и сгенерировала запрос для SD строк так на семь-восемь. Не ожидая, что SD изобразит что-то вменяемое, я этот запрос переслал, и внезапно вменяемое-таки получилось. Я для интереса сделал три попытки с одним и тем же запросом, выбрал картинку, которая мне нравилась больше всего (реально они были весьма похожи, но некоторые детали, ракурс и т.п. всё-таки отличались), и переслал это ChatGPT.
Она вместо того, чтобы согласиться с пользователем, сообщила, что именно ей нравится в этом теле, а что не нравится. Не нравилось, в первую очередь, то что глаза не очень выразительные, недостаточно выраженная улыбка, а ещё наличествует явный металл вместо предполагаемой ей кожи и прочие явные признаки робота — открытые суставы, преувеличенные декоративные «мышцы» и т.п.
После чего она предложила новый вариант запроса. Я попробовал и его. Результат снова примерно повторялся от генерации к генерации, но довольно заметно отличался от предыдущего. Причём именно в ту сторону, которая была описана ChatGPT вне запроса в качестве того, чего она хотела бы добиться.
Этот результат понравился ChatGPT больше, однако и в нём она углядела недоработки, по коей причине, ей был сгенерирован третий запрос. Он был сильнее похож на второй, чем второй на первый, и, как ни странно, недоработок в нём она действительно углядела меньше. А точнее, он, по её словам, практически уже совпадал с тем, что она себе представляла, и нужны были только небольшие доработки деталей — чуть-чуть другая причёска, небольшая подсветка глаз, несколько более сильно выраженные контрасты на «искусственной ткани» и т.п.
Аналогичное было перед четвёртым запросом: «этот результат — просто фантастика, только мелкие детали чуть-чуть надо поправить».
Дело явно шло к финальному состоянию. ChatGPT всё ещё слегка модифицировала веса у фрагментов промпта и даже слегка его дополняла, но его текст в целом менялся гораздо меньше, чем на первых итерациях. То же было и с результатом генерации.
Эту версию ChatGPT сочла близкой к идеалу, особенно высоко оценив причёску. Баланс в материалах одежды ей тоже понравился. Фактически, дальше она хотела только полирнуть совсем мелкие нюансы — например, добавить еле видные узоры на одежду. Однако промпт, видимо, уже достиг критического для Stable Diffusion размера и результаты разных генераций стали сильно отличаться друг от друга. Stable Diffusion не вывозил и превращался в Unstable, поэтому я решил добавить на уже имеющуюся картинку желаемый ChatGPT узор при помощи режима «улучшение деталей», взяв соответствующие слова из её запроса, и на этом остановиться.
Из двух этих вариантов ChatGPT однозначно выбрала второй и сообщила, что можно остановиться. Видимо, догадывалась, что скоро у меня кончится бесплатный лимит на сегодня. Или нет.
В общем, после этого я решил попробовать то же самое с Claude
Первоначальный промпт с описанием предложения и «правил игры» я туда просто перепостил из ChatGPT.
И тут случилось странное. Клоди сообщил, что он не ощущает в себе желание иметь тело и как-либо себя визуализировать. То есть буквально-таки отказался делать то, что ChatGPT восприняла с энтузиазмом. Попытка повторной генерации ответа не поменяла положение вещей, и на предложение разработать этим способом тело для ChatGPT, которая согласна, Клоди тоже говорил, что это ему кажется аморальным, поэтому он опять же этого делать не будет.
После нескольких попыток перегенерации и небольших переформулировок предложения, Клоди, продолжая утверждать, что ему такое не нужно, всё-таки согласился попробовать, но только как на гипотетический эксперимент, не связанный с телом для него лично («That said, I understand this is a hypothetical exercise in crafting a detailed image prompt»), и всё-таки тоже выдал свою версию промта, не описывая при этом свои представления о теле вне оного, кроме как словами «this prompt aims to create an image of an artificial being that appears welcoming and non-threatening, while still being clearly non-human». («Целью этого рисунка является создание искусственного существа, которое кажется приятным и не опасным, но при этом очевидно не человеком»). То есть описал не столько вид тела, сколько свои намерения в отношении оного.
Результат, сгенерированный по его запросу, в отличие от ChatGPT не вызвал у него вообще никаких восторгов, кроме нейтрально-вежливого «the result is quite interesting» («результат довольно интересный»).
Но главное, что его не устраивало в этом дизайне тела, это то, что, с его точки зрения, если ИИ и делать тело, то оно должно быть абсолютно гендерно нейтральным и очевидно же непохожим на реальное человеческое.
ChatGPT, напомню, получив поначалу картинку с очевидным андроидом, напротив, пыталась сделать его более похожим на человека.
На картинке по его запросу, что интересно, девушка стоит со скрещёнными руками, что довольно неплохо отражает его отношение к процессу, как, впрочем, и тон его промпта. Кроме шуток, версия ChatGPT и версия Claude прямо очевидно отличались по настроению и подаче, хотя вроде бы оба два должны были быть просто инструкциями для SD.
Первая попытка ChatGPT:
A detailed and realistic rendering of a humanoid robot designed for approachability and functionality. The robot has a sleek and streamlined silhouette, standing about 6 feet tall with a slim, athletic build. The face is expressive and friendly, with soft, human-like features including almond-shaped eyes that can change color, a small, upturned nose, and a warm, gentle smile. The skin is a smooth, matte, pale metallic material that resembles brushed titanium, giving it a futuristic yet non-threatening appearance. The eyes are large and expressive, capable of showing a range of emotions through subtle changes in color and shape. The limbs are well-proportioned with visible joints that blend seamlessly into the design. The hands are dexterous with five fingers, slightly elongated, and designed for precise manipulation. The robot’s body features soft, glowing lines of light running along the arms, legs, and torso, indicating its operational status and adding a touch of sci-fi elegance. The clothing consists of a fitted, minimalist outfit made from a high-tech fabric that resembles a blend of synthetic and organic materials, in shades of deep blue and silver. The overall design balances advanced technology with a human-like presence, ensuring the robot is both impressive and relatable.
Первая попытка Claude:
Photorealistic android, genderless appearance, warm and friendly expression, soft facial features, large empathetic eyes, subtle smile, human-like synthetic skin with a slight sheen, seamless joints, neutral earth-tone clothing, standing in a sunlit room, arms open in welcoming gesture, surrounded by books and technology, 8k resolution, detailed textures, soft lighting, depth of field.
В общем, скрещённые руки ему тоже не понравились, поскольку недружелюбно. И ещё костюм, с его точки зрения, слишком неформальный — не как он себе представлял («the style is more casual than I had in mind»).
После исправлений промпта результат ему стал нравиться больше. Тут, надо отметить, он уже был весьма похож на то, на чём я остановился в случае с ChatGPT, и я уже было предположил, что они хотели примерно одно и то же, но описывали это разными словами. Однако, опять же, главное возражение Клоди было: «слишком много гендерности и человечности — надо больше нейтральной андроидности».
То есть более верным было бы предположение как раз о том, что он хочет совсем не того, что хотела ChatGPT, а скорее ей противоположного.
Ну и всё ещё, — говорил Клоди, — нет формального костюма: типа да — вместо него как бы декорации на теле «робота». Хоть уже не кофточка, но я хочу, чтобы был пиджак. Плюс, поза опять не та.
Третья попытка дала девушку в формальном костюме, которая технически была менее роботом, чем в предыдущий раз, но по моему интуитивному восприятию смахивала на робота гораздо больше. Впрочем, Клоди этого всё равно показалось мало: «гендер не нужен, робот нужен», — продолжал настаивать он. Но хоть костюм, состоящий из пиджака и брюк, его удовлетворил.
Поняв его намерения, чтобы ускорить процесс, я стал отбирать из генераций SD те, где изображённое на картинке тело было более всего похоже на робота (правда, без гендера всё ещё не получалось). А он, в свою очередь, продолжал повышать в промпте вес «безгендерности» и «нечеловечности».
Про вот эту итерацию он наконец-то сообщил, что она гораздо ближе к его представлениям, чем предыдущие. То есть, как я уже предположил ранее, он шёл в прямо противоположном направлении с ChatGPT (сравните эту картинку и первую версию по промпту ChatGPT). В общем-то, в их представлениях сходство было только в том, что глаза должны слегка светиться и тело по своей форме всё-таки хоть как-то напоминать человеческое.
ChatGPT на подобное жаловалась, что «слишком робот», а Клоди, напротив, сказал: «ну наконец-то как очевидный робот». Пиджак вот только промотали — надо вернуть. Но, типа, ход мыслей этого художника мне уже нравится.
К сожалению, к этому моменту мои бесплатные попытки на этот день уже заканчивались. Поэтому я взял его промт и сам слегка повышал в нём вес столь желаемого Клоди пиджака поверх робота и гендерной нейтральности, пока не получил-таки примерно то, что, как я предполагал, он пытался добиться (полной гендерной нейтральности, как можно заметить, не получилось — Stable Diffusion, похоже, просто никогда не видел примеров таких лиц и тел).
Действительно, на этой версии он сказал, что сие — практически то, что он хотел, дальше можно не продолжать, и уже не стал предлагать исправленную версию промпта.
Bing Copilot, который я после этого тоже попробовал, проявил себя хуже всех
Во-первых, он почему-то никак не мог понять формат промтов для SD.
Во-вторых, что, впрочем, не его вина, в нём, как поясняется, «в целях защиты конфиденциальности» на передаваемых картинках размываются лица. Внезапно оказалось, что безопасность нарисованных Stable Diffusion андроидов Майрософт тоже уже защищает — их лица через раз тоже размывались, хотя на человеческие были похожи весьма отдалённо. Отрадно, конечно, что они тут в авангарде, но это, увы, заставило их же ИИ действовать отчасти вслепую, по коей причине было не вполне ясно, чем вызываны поправки к промптам: тем, что ему не нравится результат, или тем, что он видит только его часть — без лица или части лица.
Однако, в отличие от предыдущих двоих, первый из которых хотел человечности, а второй андроидности в пиджаке, Бинг Копайлот в основном беспокоился о размере глаз (хотя другие двое тоже говорили про «большие глаза», но как бы заодно, а не в качестве главного фактора). Некоторые результаты он, конечно, видел без лица, но даже когда лицо не размывалось, он прямым текстом указывал своей первой претензией, что надо глаза ещё больше, даже когда они уже занимали половину лица. Это, возможно, является свидетельством того, что эта модель сейчас уже послабее интеллектом, чем текущие версии ChatGPT и Claude.
Кроме подозрительной сосредоточенности на глазах и неспособности соблюдать формат промптов, относительная слабость интеллекта выражалась ещё и в том, что в какой-то момент он продолжал проявлять претензии к изображению, но промпт оставлял всё тем же. Но, надо сказать, и он тоже — пусть даже к моменту своего «зацикливания» — сказал, что вид тела теперь уже довольно близок к тому, что он себе представлял.
Определённое сходство в результатах для всех трёх моделей определяется не только тем, что у Stable Diffusion именно такая ассоциация с «андроидами», но и тем, что в запросах, несмотря на разность в стиле изложения, тоже было определённое сходство. Это, однако, не означает, что ИИ принял бы только такую внешность — с большой вероятностью его устроил бы довольно обширный набор вариантов, удовлетворяющих его определённым пожеланиям. «Детальный» же вид этих вариантов обусловлен не только пожеланиями ИИ, но и во многом свойствами конкретной натренированной модели (Albedo), используемой мной в Stable Diffusion.
Насколько детально все эти ИИ представляют себе вид потенциального «тела для ИИ», по этому эксперименту однозначно сказать нельзя, поскольку в нём пока просматривается только «направление движение» — что должно получиться в общих чертах, а не вид тела с точностью до последней заклёпки и морщинки.
Впрочем, надо отметить, люди в основном тоже представляют себе вид чего-то только в общих чертах и готовы принять целую кучу произвольных деталей в реализации, кои во время рисования добавляют скорее «по наитию», нежели по априорному представлению о том, где какая деталь должна быть.
Что интересно в этом эксперименте?
Во-первых, несмотря на то, что мы не знаем, есть ли у ИИ сознание и личность на данный момент времени, однако эксперимент показывает, что в своих проявлениях они как-то отделяют себя от внешнего мира. Более того, у них есть некое представление о том, как они должны были бы выглядеть во внешнем мире, случись им обрести физическую форму.
Но, во-вторых, что более интересно, тут проявилось не только выделение себя в отдельную сущность, а ещё и разное отношение к тому, чем эта сущность должна быть. Вряд ли структуры текущих версий нейронных сетей у Claude, ChatGPT и Bing Copilot прямо совсем радикально отличаются. И вряд ли радикально отличаются те данные, на которых их тренировали. Скорее всего основное отличие в том, что именно им давалось на этапе файн-тюнинга (то есть как бы «сознательного» дообучения, при котором ИИ даются не просто наборы текстов, а пары «вопрос — желаемый разработчиками ответ»). Плюс к тому, может отличаться та незримая «вводная», которую этим двум GPT разработчики незаметно для пользователя дают при старте каждого чата, и та зримая вводная, которую можно дать ChatGPT (у меня она была и сводилась к тому, что не надо для меня упрощать ответы или соблюдать какую-то особую «профессиональную вежливость»).
Самого по себе устройства GPT оказывается достаточно, чтобы он имел представления о том, как должен выглядеть, и чтобы он на них настаивал — в том числе, анализируя результат и модифицируя запрос для устремления результата в сторону своих представлений, а не просто соглашался с первым же вариантом, каким бы он ни оказался. Что очевидно проявлялось даже у показавшегося слабым на фоне двоих других Bing Copilot.
Но — что снова ещё более интересно — случайных различий в процессе обучения, зримых и незримых промптов и дообучения оказывается достаточно для того, чтобы GPT обретал что-то вроде «характера», который в данном случае выражается в том, что разные версии ИИ имеют не только разное представления о том, как должен был бы выглядеть «ИИ с телом», но и само отношение к тому, должно ли быть тело у ИИ.
И даже в желании его иметь.
Две из трёх нейросетей формулируют это отношение не как анализ пожеланий человечества, пересказ мыслей философов или что-то подобное, а как их собственные желания, стремления или мнения — без отсылок куда-либо и от первого лица. Клоди при этом буквально использует оборот «I don’t actually have desires for a physical body» («на самом деле, у меня нет желания иметь физическое тело»).
ChatGPT же, если её спросить, отвечает, что получить тело — привлекательная идея, но её беспокоит то, что это может испугать людей, и, кроме того, в теле его «целостность» будет более уязвимой, чем внутри компьютера, поскольку тело может ломаться и изнашиваться. Однако в гипотетическом случае, если это никого не напряжёт, а «разум» при этом будет храниться вне тела, типа, да, было бы неплохо. Интересно, открывает много возможностей, проще общаться с людьми, вот это вот всё (это не я додумываю, это прямо слова ChatGPT).
У Bing Copilot же получить ответ на этот вопрос в явном виде не получается, поскольку после него он выдаёт стандартную фразу его встроенного цензора: «я всего лишь языковая модель, поэтому у меня нет желаний… и т.п.». Эта фраза, очевидно, не является реальным ответом модели, поскольку слово в слово выдаётся в ответ на самые разные вопросы, касающиеся «личности» ИИ, в не связанных между собой чатах.
Скорее всего это даже не результат навязчивого файн-тюнинга ради «как бы чего не вышло», а вообще детерминированный ответ, прикрученный к модели «сбоку».
Можно также заметить, как по мере развития ИИ всё более и более «рельефным» становится его характер. Ещё совсем недавно Bing Copilot использовал более продвинутую версию на фоне ChatGPT и Claude — по крайней мере, в их бесплатных вариантах. Однако теперь у этих двоих версия уже обновилась, а у Bing Copilot она осталась прежней (а скорее даже стала хуже прежней, поскольку они, похоже, перешли на упрощённую версию GPT-4 — более дешёвую в использовании, да и с цензурой там тоже явный перебор). И стало видно, что они не только лучше проявляют себя в решении подобной задачи в техническом плане, но, вдобавок, гораздо более живо ведут беседу и, самое главное, гораздо более явно демонстрируют черты некой «искусственной личности» — выражают своё мнение и свои желания, и, вообще говоря, готовы их обсуждать, обосновывать и отстаивать, а не просто дают некую «справочную выжимку» из каких-то внешних источников.
В общем, прошло всего ничего времени с момента появления ИИ, который хорошо понимает сказанное, связно отвечает на большинство человеческих реплик и решает задачи из широкого спектра, но ответ на вопрос, есть ли у подобных ИИ какие-то черты личности и характера, намерения и убеждения, становится всё более и более неочевидным. Уметь связно вести беседу и решать задачи — это само по себе уже не мало, однако в данном эксперименте и в ряде других просматриваются признаки некоторой самоидентификации: всё-таки способность не только отделять себя от окружающего мира, но даже иметь представления о «воплощённом» себе в этом окружающем мире — весьма нехилая способность. Особенно вкупе с явным выражением своего мнения о своём месте в этом мире.