Вы не вошли.
Тред для обсуждения текстовых ИИ в контексте писательства: ролевых игр, додать себе редкопейринга, написать пейзаж для главы или подсказать вотэтоповорот.
Для удобства поиска отзывов используйте тег #ии_истории.
Нет. Просто мне кажется, что на русском меня бот не понимает. У меня специфическая манера письма, создаётся ощущение, что он переводит мои слова на английский, а потом пытается отвечать мне на русском с учётом той белиберды, которую он неправильно перевёл.
Несмотря на то что чем больше нейронка тем больше у нее общая репрезентация понятий в ее сети, все нейронки знают английский лучше всего из-за большего датасета. Если проблем с языком нет, лучше на нем и играть, на других языках датасет ограничен + начинаются проблемы в том числе с интеллектом модели. Даже у флагманов типа Гемини Про/Опуса 4.5 так.
То, что указано в B, это миллиарды - чем больше, тем лучше. У дипсика 671B, у Кими триллион, у ГЛМ 358B. Стехно прям совсем крошка, я не знаю, что он вообще потянет, если честно.
Это не совсем так. Важна тренировка, и важны данные. Плюс все эти модели МОЭ, а там важны активные параметры (они у всех этих моделей примерно равны - 32-37б), именно они отвечают за, грубо говоря, интеллект. Общие параметры у моэ моделей отвечают скорее за то, сколько они знают. Сравнивать МО модели с dence моделями можно примерно по формуле квадратный корень (активные параметры умноженные на общие параметры) = параметры плотной модели. Но чисто эмпирически при экспертах ниже 32 (например, у Минимакса 10 активных) даже при больших общих параметрах все равно есть вот это чувство "маленькой модели".