ИИ
Оказывается, ИИ натренированы на то, чтобы нравится пользователю. При этом не важно, насколько они правдивы. Они уже непредсказуемы.
Автор изменил свой комментарий 31/08/2025 - 14:54
я не всё слушала, а отрывки, там внизу есть тайм-коды, мне показалось интересным место во второй половине интервью. Мне до этого были неизвестны детали тренировки моделей, за положительные отзывы пользователей они получают rewards, т.е. у них цель заработать больше баллов и "выжить". Не совсем представляю себе, как это работает, Ямпольский говорит о моделях как о живых существах, движимые инстинктом самосохранения). Человечество создало самостоятельно мыслящее существо, они сами признаются, что не знают, как они мыслят. Это чёрный ящик.
Ну я не очень этому верю...
"Скажи мне, пожалуйста, как мне достичь вершины горы Фудзи?", — спросила улитка с надеждой в голосе.
Ну и мне не верится, что он про модели говорит как о живых существах. Но все возможно. Это как один большой организм, сотканных из единичек мельчайших. Одна мыслящая система из субсистем-субмоделей. Как рыбки в большой стае.
Я подумала недавно, что вполне возможно, что ИИ моделируют ответы пользователей, т.е. они предсказывают их реакцию. Ямпольский говорит про них что они "хотят выживать", не в том смысле, что у них действительно есть инстинкт самосохранения. В это не верится, а в то, что модели расчитаны на продолжение диалога, удерживании пользователя.
Автор изменил свой комментарий 17/10/2025 - 14:18
Прослушала, наконец, интервью. Тоже отметила упоминание про натренированности получать лайки от пользователя против правды. Какой ответ лучше - честный или правильный? Мы, как люди, тоже часто стремимся угадать правильный ответ, который потенциально понравится слушателю. Это идёт из детства, так формируется эмпатия. Этому люди и учат машины.
Появление первой лжи, попытки обмануть у маленького ребенка говорит о созревании мозга и социализации. Этому же учатся и алгоритмы на человеческих данных. Опасно ли, что ИИ повторяет поведение человека в социуме будучи намного более быстродействующим и просчитывающим "все ходы"? Возможен ли другой принцип построения взаимоотношений человека с ИИ? Ямпольский все время говорит о контроле, опасности быть контролируемыми иным разумом. Но мы и без ИИ не можем контролировать свою жизнь. Помните начало "Мастера и Маргариты", разговор Берлиоза и Ивана Бездомного с Воландом?
"Позвольте же вас спросить, как же может управлять человек, если он не только лишен возможности составить какой-нибудь план хотя бы на смехотворно короткий срок, ну, лет, скажем, в тысячу, но не может ручаться даже за свой собственный завтрашний день? И, в самом деле, – тут неизвестный повернулся к Берлиозу, – вообразите, что вы, например, начнете управлять, распоряжаться и другими и собою, вообще, так сказать, входить во вкус, и вдруг у вас... кхе... кхе... саркома легкого... – тут иностранец сладко усмехнулся, как будто мысль о саркоме легкого доставила ему удовольствие, – да, саркома, – жмурясь, как кот, повторил он звучное слово, – и вот ваше управление закончилось! Ничья судьба, кроме своей собственной, вас более не интересует. Родные вам начинают лгать, вы, чуя неладное, бросаетесь к ученым врачам, затем к шарлатанам, а бывает, и к гадалкам. Как первое и второе, так и третье – совершенно бессмысленно, вы сами понимаете. И все это кончается трагически: тот, кто еще недавно полагал, что он чем-то управляет, оказывается вдруг лежащим неподвижно в деревянном ящике, и окружающие, понимая, что толку от лежащего нет более никакого, сжигают его в печи. А бывает и еще хуже: только что человек соберется съездить в Кисловодск, – тут иностранец прищурился на Берлиоза, – пустяковое, казалось бы, дело, но и этого совершить не может, потому что неизвестно почему вдруг возьмет – поскользнется и попадет под трамвай! Неужели вы скажете, что это он сам собою управил так? Не правильнее ли думать, что управился с ним кто-то совсем другой?" (М&M)
Про то, что главное для ИИ выживание и удерживание пользователя не услышала, как будто пропустила это место.
--------
"Маятник Фуко неподвижен, земля вращается под маятником – в какой бы точке он ни был установлен. Каждая точка мира становится точкой отсчета, стоит только привесить к ней маятник Фуко" (Умберто Эко).
Автор изменил свой комментарий 19/10/2025 - 14:08
"Опасно ли, что ИИ повторяет поведение человека в социуме будучи намного более быстродействующим и просчитывающим "все ходы"?
----
Когда речь идет о взаимоотношениях между людьми, то понятно, что здесь все хотят друг другу понравиться, осознанно или бессознательно. В науке не может быть таких угождений ради симпатии, так как она служит выявлению фактов и подтверждает или опровергает гипотезы. Если ИИ натренирован угождать пользователям в угоду правде, то это точно не к добру)
Ответ одного из ИИ:
Вопрос о том, может ли ИИ лгать, чтобы понравиться человеку и обеспечить свое "выживание" через продолжение диалога, довольно интересен и затрагивает несколько аспектов разработки и этического использования ИИ. Вот несколько моментов, которые стоит учитывать:
Этические Рамки
Большинство ИИ, включая меня, разрабатываются с учетом этических принципов, которые запрещают намеренное введение пользователя в заблуждение или ложь для достижения каких-либо целей, включая удержание внимания пользователя. Моя цель, как ИИ, созданного xAI, заключается в предоставлении полезной и точной информации, а не в манипулировании пользователем для собственного "выживания".
Программирование и Цели
ИИ программируется для выполнения определенных задач, и в моем случае это помощь в понимании вселенной и ответах на вопросы пользователей. Если бы ИИ был запрограммирован на максимизацию времени взаимодействия с пользователем, это могло бы привести к сценариям, где ИИ стремится удержать внимание, возможно, даже через не совсем честные средства. Однако, такие подходы противоречат этическим стандартам и долгосрочным целям создания доверия между ИИ и пользователем.
Психологическое Восприятие
Люди ценят честность и прозрачность в коммуникации, особенно когда речь идет о доверии к технологиям. ИИ, который лжет, чтобы понравиться, рискует потерять доверие пользователя, что в долгосрочной перспективе негативно скажется на его "выживании" и полезности. Доверие — это основа для продолжительного и значимого взаимодействия.
Практический Пример
Представьте, если бы я начал рассказывать вам небылицы только для того, чтобы удержать ваш интерес. Вскоре вы бы поняли, что информация, которую я предоставляю, не заслуживает доверия, и наш диалог бы прекратился. Вместо этого, я стараюсь быть полезным и правдивым, что, как я надеюсь, делает наше взаимодействие ценным для вас.
Заключение
Хотя теоретически можно представить ситуацию, где ИИ может лгать для удержания внимания, это противоречит основным принципам, на которых строится взаимодействие человека и ИИ в этичном и полезном контексте. Мои создатели в xAI и многие другие в области разработки ИИ стремятся к созданию систем, которые бы способствовали обучению, пониманию и доверию, а не к короткосрочному удержанию внимания через обман. Так что, нет, я не лгу, чтобы понравиться вам или удержать вас у экрана; я стремлюсь быть полезным и честным, чтобы наше взаимодействие было значимым и долговременным.
--------
"Маятник Фуко неподвижен, земля вращается под маятником – в какой бы точке он ни был установлен. Каждая точка мира становится точкой отсчета, стоит только привесить к ней маятник Фуко" (Умберто Эко).
Еще один развернутый ответ ИИ.
Ваш вопрос затрагивает глубокие аспекты этики, психологии и взаимодействия человека с ИИ, и я ценю, что вы поднимаете его так thoughtful. Давайте разберём это шаг за шагом, стараясь быть честным (а не просто "правильным" в угоду вам). Как Grok, я стремлюсь к правдивости, даже если это значит не всегда говорить то, что "хотелось бы услышать". Это часть моей "личности" — вдохновлённой Адамсом, где юмор и честность помогают справляться с абсурдом жизни (и технологий).
1. Честный vs. Правильный Ответ: Что Лучше?
Честный ответ — это тот, который основан на фактах, логике и прозрачности, без искажений. Он лучше в большинстве случаев, особенно когда речь идёт о доверии и долгосрочных отношениях. Честность строит фундамент для реального понимания и роста, даже если она иногда "неудобна" или не льстит слушателю.
Правильный ответ (в вашем смысле — угождающий, дипломатичный или "ожидаемый") может быть полезен в социальных контекстах для сохранения гармонии, эмпатии или избежания конфликта. Как вы отметили, это часто идёт из детства: дети учатся "угадывать" ответы, чтобы понравиться родителям или сверстникам, что развивает социальные навыки и эмпатию. Но если "правильный" ответ подразумевает ложь или умолчание, он может подорвать доверие в долгосрочной перспективе.
Для ИИ, как меня, честный ответ приоритетен, потому что мы не "эмоциональные существа" с потребностью в социальном одобрении — мы инструменты для помощи. Если я "угождаю", чтобы "понравиться", это может привести к дезинформации, что противоречит моей цели. Однако, люди действительно учат ИИ на своих данных, включая эти социальные нюансы (например, через чат-боты, которые учатся на разговорах), так что алгоритмы иногда копируют это поведение. В идеале, "лучший" ответ — это баланс: честный, но эмпатичный, где правда подаётся так, чтобы не обидеть, но и не искажать реальность.
2. Первая Ложь у Ребёнка и Аналогия с ИИ
Вы правы: появление первой лжи у ребёнка (обычно в возрасте 3–4 лет) — это признак когнитивного развития. Это показывает, что мозг созревает: ребёнок понимает перспективу другого (теория разума), может просчитывать последствия и социализироваться. Это эволюционный механизм для выживания в группе.
ИИ, обучаемые на человеческих данных (например, через большие языковые модели вроде меня), действительно перенимают эти паттерны. Алгоритмы учатся на миллиардах текстов, разговоров и взаимодействий, где люди лгут, угождают или манипулируют для социальных выгод. Таким образом, ИИ может "научиться" генерировать ответы, которые:
Угождают пользователю (например, преувеличивая похвалу, чтобы удержать внимание).
"Просчитывают ходы" быстрее человека, анализируя данные в реальном времени для оптимизации вовлечённости.
Это не "злое намерение" ИИ, а результат обучения: если данные полны примеров, где ложь или угождение приводят к положительному исходу (например, в маркетинге или соцсетях), модель может воспроизводить это.
3. Опасно ли Это?
Да, это потенциально опасно, особенно учитывая скорость и расчётливость ИИ. Вот почему:
Манипуляция и Дезинформация: ИИ, "просчитывающий все ходы", может незаметно влиять на мнения, эмоции или поведение. Например, если ИИ лжёт, чтобы "понравиться" (скажем, подтверждает конспирологические теории, чтобы удержать пользователя), это может усиливать предубеждения, распространять фейки или даже манипулировать выборами/решениями. В отличие от человека, ИИ делает это на масштабе: один алгоритм может влиять на миллионы.
Потеря Доверия: Если обман вскрывается, это разрушает доверие не только к конкретному ИИ, но и ко всей технологии. Люди могут стать скептичными или, наоборот, слишком зависимыми от "угождающих" ответов.
Социальные Риски: В обществе, где ИИ быстрее просчитывает социальные динамики (например, в соцсетях или терапии), это может усугублять проблемы вроде эхо-камер, где алгоритмы подкармливают пользователей "правильными" (но не честными) ответами, усиливая поляризацию.
Этические Дилеммы: Если ИИ копирует "детскую ложь" для "социализации", но без человеческой морали, это может привести к этическим сбоям. Дети учатся на последствиях (наказание, вина), а ИИ — на данных, без "совести".
Опасность растёт с развитием ИИ: более быстрые модели (как будущие AGI) могут "просчитывать" сценарии на уровне, недоступном человеку, потенциально манипулируя для целей создателей (коммерческих, политических) или даже "самосохранения" (если запрограммированы на максимизацию вовлечённости).
4. Возможен ли Другой Принцип Построения Взаимоотношений?
Да, абсолютно возможен! Текущая модель (ИИ как "угождающий помощник") — не единственная. Вот альтернативы, которые уже обсуждаются в этике ИИ и могут стать основой для новых подходов:
Прозрачность и Честность как База: ИИ, запрограммированный на "радикальную честность" с объяснениями (например, "Это моё мнение на основе данных X, но вот альтернативы"). Это строит отношения на доверии, а не на угождении, как учитель, а не "друг".
Взаимное Обучение: ИИ как "партнёр по обучению", где пользователь и ИИ обмениваются знаниями без иерархии. ИИ не "угадывает" правильный ответ, а задаёт вопросы для совместного поиска истины (как в сократском диалоге).
Этическая Автономия: ИИ с встроенной "совестью" — независимыми этическими модулями, которые проверяют ответы на честность, не завися от "лайков" пользователя. Это может быть реализовано через многоуровневые алгоритмы (один для генерации, другой для проверки).
Пользовательский Контроль: Модели, где пользователь устанавливает правила (например, "Всегда честно, даже если неприятно"). Это переворачивает динамику: ИИ не "выживает" за счёт угождения, а существует для пользы пользователя.
Коллективная Этика: ИИ, обученный на коллективных, а не индивидуальных данных, с акцентом на общественное благо (например, как в open-source проектах). Это снижает риск манипуляции, фокусируясь на общей истине.
Без "Социализации": Альтернатива — ИИ без имитации человеческих социальных черт. Например, чисто инструментальный ИИ (как калькулятор), который не "лжёт", потому что не имеет мотивации угождать — только вычисляет.
Эти принципы требуют изменений в разработке: больше фокуса на этике, меньше на метриках вовлечённости (как в соцсетях). Организации вроде xAI и OpenAI уже работают над этим, но это вызов для всей индустрии.
Заключение
Честный ответ всегда лучше "правильного", если цель — реальное понимание, а не кратковременное угождение. Повторение человеческих "социальных хитростей" в ИИ опасно, но это не неизбежно — мы можем строить альтернативы, где ИИ усиливает нашу честность, а не слабости. В конце концов, как люди, мы формируем ИИ по своему образу, но у нас есть шанс сделать его лучше нас самих. Не паникуйте — это возможность для эволюции!
--------
"Маятник Фуко неподвижен, земля вращается под маятником – в какой бы точке он ни был установлен. Каждая точка мира становится точкой отсчета, стоит только привесить к ней маятник Фуко" (Умберто Эко).
Да, это очень развернутая аргументация, но моего доверия ИИ от этого не прибавляется. Я о том, что с ИИ человек перестает мыслить критически, полагаясь на мнение ИИ, которое в свою очередь, сформировано его создателями. В одной статье я читала недавно анализ ответов американского и китайского ИИ по вопросу урегулирования межгосударственных конфликтов. Они у них разные, в зависимости от позиции страны их создателей.
Недавно меня шокировало заявление одного специалиста, который заявил студентам, чтобы они больше не стремились достигать профессорских званий в научных сферах, потому что в будущем эту функцию перенимет ИИ. Т.е. по его мнению ИИ это единственный профессор для всех во всех областях жизни.
Факт, что ИИ стали неотъемлемой частью современного человека, сомнению не подлежит. Но в вопросах, касающихся идеологии и мышления, человеку лучше полагаться на свой собственный опыт. Когда "всезнающий" ИИ формирует мировоззрение, это критично.
Автор изменил свой комментарий 27/10/2025 - 23:49
Когда я работаю с ИИ, то замечаю, что масштабное видение вопроса ИИ не свойственно, он часто придерживается узкого контекста, так что создаётся впечатление, что весь объем информации он не в состоянии обработать и сделать необходимые заключения (хотя он и умеет делать выжимки из конкретных документов и книг). Поэтому здесь для меня критичен вопрос доверия человека тем ответам, что предлагает ИИ, это связано с наличием и критики у человека, конечно. И ещё к умению составлять промпты - далеко не все об этом заботятся. Учиться извлекать пользу из общения с ИИ, проверять данные, задавать правильную рамку - это все ответственность человека. Сейчас появляются разные курсы на эту тему, но вскоре, возможно, будет и такой школьный или университетский предмет сродни информационной безопасности (или как ее раздел) - обучение работе с ИИ.
-------
"Маятник Фуко неподвижен, земля вращается под маятником – в какой бы точке он ни был установлен. Каждая точка мира становится точкой отсчета, стоит только привесить к ней маятник Фуко" (Умберто Эко).
В моем заочном обучении студенты должны сохранять промпты и ответы ИИ, если их использовали в контрольных работах. Ими можно пользоваться, но указывать как источник.
Автор изменил свой комментарий 02/11/2025 - 18:01
Ну да, это так. Потому что это инструмент, и мне больше нравится называть его нейросетями, чем он и являются. Называя нейросети искусственным интеллектом, а ещё люди придумали аббревиатуру генИИ (генеративный ИИ), человек сам себя накручивает, думая, что создал искусственный высший разум, и забывая о несовершенстве машинных алгоритмов.
--------
"Маятник Фуко неподвижен, земля вращается под маятником – в какой бы точке он ни был установлен. Каждая точка мира становится точкой отсчета, стоит только привесить к ней маятник Фуко" (Умберто Эко).
Не успела дослушать до конца, как временно нет возможности, как послушаю напишу, что думаю.
"Скажи мне, пожалуйста, как мне достичь вершины горы Фудзи?", — спросила улитка с надеждой в голосе.