Вы не вошли.
Тред для обсуждения текстовых ИИ в контексте писательства: ролевых игр, додать себе редкопейринга, написать пейзаж для главы или подсказать вотэтоповорот.
Для удобства поиска отзывов используйте тег #ии_истории.
Йеп, держи:
Спасибо 
И от меня спасибо за ботов, анонче
/Эх, жаль, что лорбук недоступен, дофига любопытно что там/
Отредактировано (2026-01-21 21:41:50)
если бы в одном варианте он не был в ванне с розовой пеной...
Кстати, это лучший из его вариантов, автор наконец-то сделала каноном то, что я с ним делаю в каждой игре (буквально в каждом сюжете я гоню его мыться и менять трусы).
Да мне чатгпт то же самое сказал, и я умом-то понимаю, но это не мешает мне перестать ???
ну, справедливости ради я тоже помню, когда нейронки в элементарных задачах плыли, а тут гемини с нуля (почти) мне css для джанитора сделал. хотя и не такой кричащий, как у многих авторов, а достаточно минималистичный (впрочем, что мне и надо было)
правда ему надо html-файл скормить, чтобы он под себя не срал при этом.
Но я сходил доебался до остальных ризонеров, и они все так считают, не только ГЛМ. Не знаю, правда, это тот факт, который всегда будет меня удивлять.
Я не ИИ вроде бы, но тоже так считаю, и с умножением, и со сложением, и с вычитанием, а что не так? На бумаге буду в столбик, а в голове - раскладывать.
Я не ИИ вроде бы, но тоже так считаю, и с умножением, и со сложением, и с вычитанием, а что не так?
Именно то, что ты не ИИ. Ты еще и строки кода наверное за секунду тоже не выдаешь.
Ризонинг ГЛМ иногда меня тоже иногда в ступор вводит. Из последнего:
If I have him shoot her, the roleplay ends or goes necro (which violates the "alive" aspect of the relationship usually).
В смысле, usually??? И что за внезапное necro, у нас реальный реал, а не фентезятина. Или это он так на некрофилию намекает?
Отредактировано (2026-01-22 00:54:17)
Что случилось с c.ai? Почему pipsqueak выдаёт иногда очень длинные ответы, которые превращаются к концу в словесный салат? Словесный салат это канон для некоторых персонажей в моём новом фандоме, но не для всех же, блин.
В смысле, usually??? И что за внезапное necro, у нас реальный реал, а не фентезятина. Или это он так на некрофилию намекает?
Добрые и позитивные модели не любят, когда персонажи ругаются или расстаются, и иногда даже смерть одного из персонажей не повод прекращать отношения.
я все еще помню, как чатгпт не мог посчитать буквы о в слове помидор.
Все современные нейронки все еще не видят буквы в словах, а видят токены, чтобы посчитать буквы, им надо написать слово по буквам, тогда они его увидят. Токенайзер чтобы наглядно видеть как это работает.
Именно то, что ты не ИИ. Ты еще и строки кода наверное за секунду тоже не выдаешь.
LLM вообще ни разу не калькуляторы, им вообще доверять что-то серьезное считать нельзя (маленькие сетки все еще считают плохо, остальные - потому что галлюцинации все еще проблема), пусть лучше пользуются внешними инструментами. Самим по себе не знаю как именно им легче будет, но полагаю что подобная система помогает сетке "видеть" число, потому что большие числа тоже токенизируются непойми как, и они не видят точные цифры. А код это просто язык программирования, у него есть правила и логика по типу натуральных, тоже мало отношения именно к механическим вычислениям имеет.
По поводу токенизации, пару месяцев назад видел исследование, что ЛЛМ с визуальным модулем способна из маленькой картинки с текстом получить текст в несколько раз больше по токенам. Не помню конкретно примеры, типа 200 токенов картинка, а текста там было на 1000 токенов, такое. Но при этом, насколько я понял, была проблема с пониманием, то есть, сетка "расшифровывала" для себя текст только когда переводила его в свои текстовые токены. Возможно это из-за того как сейчас современные сетки с виженом делают (наращивая визуальный модуль довольно поздно), и в сетках есть дисконнект между основной сеткой и вижен модулем, а возможно что-то другое.
Все современные нейронки все еще не видят буквы в словах, а видят токены, чтобы посчитать буквы, им надо написать слово по буквам, тогда они его увидят.
Да, я знаю. Чатгпт справился, впрочем, а дипсик насчитал три.
LLM вообще ни разу не калькуляторы, им вообще доверять что-то серьезное считать нельзя (маленькие сетки все еще считают плохо, остальные - потому что галлюцинации все еще проблема), пусть лучше пользуются внешними инструментами.
То, что им нельзя доверять считать, и так очевидно - по крайней мере для тех, кто постоянно взаимодействует с ллм. Это знание все равно никак не повлияло на удивление
У нас у всех тут были моменты "а чо, это так работает?" и будут еще не раз со временем и прогрессом.
От чутес. Я правильно понимаю, что они стали хостить модели без ризонинга?
4.6 у меня что вчера, что сегодня не то, что тормозила, ошибками плевалась(
Due to limited availability of TEE nodes for the last few days the Zai.org GLM models have been running at very high utilization and causing issues with response times and general usability. Because of this in an effort to better serve the community the team has deployed 3 additional chutes of these models without TEE.
These Chutes are distinctly marked with fp8 at the end so that they wont be confused with the TEE instances. These Chutes were just deployed recently and are starting to scale up now. Please use these new Chutes to spread the weight created by the popularity of these models. We will continue to onboard more TEE nodes in the coming days and will ideally have the TEE versions able to cover the full request volume in the near future. Until then we hope this helps those who want to use these models to have more access without issues.
Я правильно понимаю, что они стали хостить модели без ризонинга?
Нет. Модель FP8 это та же модель, просто квантованная, дешевле/быстрее/немножко (чаще всего незаметно) хуже. TEE нас вообще не касается, это Trusted Execution Environment.
Отредактировано (2026-01-22 21:51:58)
У нас тут очередной скандал назревает с наногпт https://www.reddit.com/r/SillyTavernAI/s/KnWoqKR8qJ
Чутес утверждает, что наногпт насоздавал 40+ акков с подписками, используя ворованные карты, чтобы обеспечить себя моделями.
Чутес утверждает, что наногпт насоздавал 40+ акков с подписками
По этому треду теперь есть еще тред
https://www.reddit.com/r/SillyTavernAI/ … that_will/
Вообще, соглашусь с одним из комментов как раз во втором треде, что им бы надо тогда сделать официальное заявление у себя на площадке. Я когда открыла ту ссылку, даже не поняла сначала что это оф.акк чутеса (вернее их ролевого сервиса).
а еще чтобы два раза не вставать уже пожалуюсь на агнаи, опять у меня пропал чат с ботом и осталось только его последнее сообщение
задолбал этот баг, придется опять на джанитор идти чтобы сидеть нормально с глм, на виверне так и не работает напрямую их подключение по подписке заи
а еще чтобы два раза не вставать уже пожалуюсь на агнаи, опять у меня пропал чат с ботом и осталось только его последнее сообщение
Чат не пропал, там схема чата с развилками порвалась, открой её и перейди к тому сообщению, на котором оборвалось.
Меня там больше бесит баг с обрывом генерации на имени персоны, он после той же обновы появился.
Меня там больше бесит баг с обрывом генерации на имени персоны, он после той же обновы появился.
Анон, а ты об этом админу в дискорд писал? Он обычно старается быстро править, если знает - что.
Решил потратить кредиты на ОР на клода, а он мне в НСФВ сцене
relentless snapping of hips
arm draped possessively
fingers traced idle patterns
здравствуй, минерва ксоул 2025, я не скучал 
Меня как-то раньше стороной обходило масло масляное у ГЛМ, но вот, всё бывает в первый раз
Dominic went rigid—not from the undignified way he was shoved onto the straw-filled mattress, but from the sheer, impossible impossibility of what he had just witnessed.
на виверне так и не работает напрямую их подключение по подписке заи
На Виверне нельзя подключить Заи. Никак. Я на дискорде даже спрашивала. И это боль. Мне на агнаи неудобно и не хватает функций (те же лорбуки там никакие), но приходится терпеть.
К слову, Виверна запустила свою СилиТаверну на минималках свое приложение на компьютер, если вдруг кому надо.
Анон, а ты об этом админу в дискорд писал? Он обычно старается быстро править, если знает - что.
Да, и не я один, но пока вот не починили, уже полгода прошло.
На Виверне нельзя подключить Заи. Никак. Я на дискорде даже спрашивала. И это боль. Мне на агнаи неудобно и не хватает функций (те же лорбуки там никакие), но приходится терпеть.
Да знаю, я потому и написала что так и не работает. У меня была надежда, потому что наконец-то апи ключ от заи верифицировался, но в генерациях вечные ошибки
Чат не пропал, там схема чата с развилками порвалась, открой её и перейди к тому сообщению, на котором оборвалось.
Вроде нашла где чинится, спасибо! Но всё равно неудобно блин 
Все же в некоторых местах модели подтупливают.
Пишу ГЛМ: брось кубик d20, четное - победила персона, нечетное - чар. Играют в камень-ножницы-бумага до 3 побед.
ГЛМ: хмм, выпало 7, победил чар. Персона выбрасывает ножницы, чар - бумагу, но победи он, потому что кубик так сказал и победил после первого раунда.
0528 в этом плане оказался у не: провел три раунда, но иногда так же тупил с тем, кто кого победил.
Меня там больше бесит баг с обрывом генерации на имени персоны, он после той же обновы появился.
А если в настройках пресета потыкать Disable Name Stops? Не уверен, поможет ли это, но всегда лучше попробовать.
Все же в некоторых местах модели подтупливают.
Пишу ГЛМ: брось кубик d20, четное - победила персона, нечетное - чар. Играют в камень-ножницы-бумага до 3 побед.
ГЛМ: хмм, выпало 7, победил чар. Персона выбрасывает ножницы, чар - бумагу, но победи он, потому что кубик так сказал и победил после первого раунда.
0528 в этом плане оказался у не: провел три раунда, но иногда так же тупил с тем, кто кого победил.
для моделей слишком слабая связь между броском кубика и тем, что они выбрасывают в камень-ножницы-бумага.
хотя я вашей формулировки не знаю, но замечу, что там иногда очевидные вещи надо объяснять. вроде того, что не просто "четное - победила персона, нечетное - чар", а "если выпадает четное, то чар показывает выигрышный вариант в игре камень-ножницы-бумага, основываясь на том, что показала персона, если нечетное - проигрышный"