Вы не вошли.
Тред для обсуждения текстовых ИИ в контексте писательства: ролевых игр, додать себе редкопейринга, написать пейзаж для главы или подсказать вотэтоповорот.
Для удобства поиска отзывов используйте тег #ии_истории.
Не, я в целом окей с любыми сюжетными поворотами, но просто интересно, как так получается что он не следует своему же "мышлению"?
Там вообще временами странно. Вот прямо сейчас я написал от лица непися. Бот в ризонинге написал "я не должен говорить за персону" (это в промпте есть), потом написал "я не должен говорить за непися" (видимо, это из-за того, что промпт ему за юзера говорить запрещает), а в основном посте написал нормальное продолжение диалога между ботом и неписем.
Каждым свайпом бот отвечает в разных вариациях: "Да, пошли, конечно, но если ты еще раз попытаешься спрыгнуть, я сам тебя сброшу".
Какие-то вайбы "если ты умрёшь, я тебя убью!"
Я не могу уже с этими занавесками.
The user's writing style favors visceral details and psychological complexity. They'll appreciate the burnt coffee smell.
У меня дипсик заклинило на глазах: "Его зелёные глаза, холодные и пронзительные; Его глаза, зелёные и непроницаемые; Его зелёные глаза, казалось, потемнели, став почти чёрными в тусклом свете. Его зелёные глаза, всегда холодные и расчётливые" и т.д. сука в КАЖДОМ свайпе эти зеленые глаза. Там были сравнения и с лесами, и с болотами, и с камнями, я просто уже сдалась
интересно, как так получается что он не следует своему же "мышлению"?
Такое бывает.
У всех моделей в какие-то моменты случается существенная разница между тем что они пишут в ризонинге и тем что они пишут в ответе.
Есть несколько исследований по этому поводу, я не совсем все понимаю, потому что не специалист, а просто нейронками интересуюсь. Я не уверен, какие гипотезы есть у ученых, почему так происходит.
Что я понимаю: первое, ризонинг это на самом деле не то, что думает сетка, сетка "думает" вероятностями в своем латентном многомерном пространстве внутри себя, ризонинг это такая же потокенная запись, как и ответ, и они не передают всю глубину мысли сетки. Второе, в зависимости от того как натренирована сетка, ее ризонинг может быть нам непонятен, отчасти (насколько я понимаю) потому что сетка видит какие-то свои связи между токенами, которые нам не очевидны. Возможно это именно то, что происходит в случае, когда ризонинг часть сильно расходится с частью не-ризонинга.