Вы не вошли.
Тред для обсуждения текстовых ИИ в контексте писательства: ролевых игр, додать себе редкопейринга, написать пейзаж для главы или подсказать вотэтоповорот.
Для удобства поиска отзывов используйте тег #ии_истории.
это отдельные огранизации и в офисе гугла создатели саи не сидят?
Про это никто вообще не говорил…
Пруф?
Доказательство того, чего нет? Может, ты принесешь пруф, что платит? Еще раз напомню, что сделка, после которой Шазир вернулся в гугл, была единоразовой и ничего из того, что ты утверждаешь, не доказывает.
На что пруф-то, на то что это отдельные огранизации и в офисе гугла создатели саи не сидят?
Этот странненький анон не в первый раз кстати этот тейк в тему приносит, и каждый раз сливается, когда его поправляют. Сейчас тоже сольется.
Отредактировано (2024-12-25 02:16:47)
Может, ты принесешь пруф, что платит?
We’re excited to announce that we’ve entered into an agreement with Google that will allow us to accelerate our progress. As part of this agreement, Character.AI will provide Google with a non-exclusive license for its current LLM technology. This agreement will provide increased funding for Character.AI to continue growing and to focus on building personalized AI products for users around the world.
Плюс, сюда же. Еще два года назад Гугл предоставляла саи мощности облачных сервисов для тренировки их модели. Пруфы лежат на реддите.
Отредактировано (2024-12-25 02:22:48)
Этот странненький анон не в первый раз кстати этот тейк в тему приносит, и каждый раз сливается, когда его поправляют.
> анон который говорит чистую правду про то что саи получили три миллиарда от гугла и еще участвуют в гугловских разработках, а от совершенствования своей модели отказались, поэтому их не особо волнует отток пользователей - странненький
> анон который каждый раз врывается чтобы "поправить" и защищает гуглобарена - не странненький
Пон.
We’re excited to announce that we’ve entered into an agreement with Google that will allow us to accelerate our progress. As part of this agreement, Character.AI will provide Google with a non-exclusive license for its current LLM technology. This agreement will provide increased funding for Character.AI to continue growing and to focus on building personalized AI products for users around the world.
Плюс, сюда же. Еще два года назад Гугл предоставляла саи мощности облачных сервисов для тренировки их модели. Пруфы лежат на реддите.
Это всё ещё не пруф. А ты заебал
We’re excited to announce that we’ve entered into an agreement with Google that will allow us to accelerate our progress. As part of this agreement, Character.AI will provide Google with a non-exclusive license for its current LLM technology. This agreement will provide increased funding for Character.AI to continue growing and to focus on building personalized AI products for users around the world.
Это как раз та самая единоразовая сделка, о которой анон выше писал, они еще там же писали что денег от нее хватит на полтора года работы и откупиться от инвесторов.
а от совершенствования своей модели отказались,
Причем, все это было в расследовании Форбс, кажется. И ссылку сюда носили (не я). И, если что, про гугл сказал я в первый раз. Но я, конечно, один, а оппонентов у меня вся холиварка.
Странненький анон.
Это как раз та самая единоразовая сделка, о которой анон выше писал, они еще там же писали что денег от нее хватит на полтора года работы и откупиться от инвесторов.
Хотелось бы увидеть хоть намек на «одноразовость» сделки. Хоть где-нибудь. А так же хотелось бы увидеть, где в источнике говорится про полтора года.
https://blog.character.ai/our-next-phase-of-growth/
Это всё ещё не пруф. А ты заебал
Понятно, слив засчитан
Это всё ещё не пруф.
А ты вот вообще что пытаешься доказать? Нахера тебе пруф?
"Вреееети, у них нет денег, они просто некомпетентные, ряяяяяя!!"
Вот это вот, или что?
Нта, если что.
Хотелось бы увидеть хоть намек на «одноразовость» сделки. Хоть где-нибудь.
Кстати, о Гугле, какие у кого впечатления от новых Гемини Джемини? Я все еще жду когда в таверну завезут поддержку варианта со встроенным КоТом, но в целом новые версии мне нравятся.
Да, спросил ее на нулевой температуре как ее называть, она во всех свайпах сказала именно "Джемини", не знаю, может изменится еще, но пока буду так писать, поправил себя. (новый гиф или джиф, лол)
Отредактировано (2024-12-25 03:03:40)
Дальше сам.
Очень удобно Так где там про одноразовость-то? А то я тоже могу принести ссылку на то, что саи сотрудничает с компанией Маска.
https://www.ft.com/content/5cf24fdd-30e … fa6f4ad90e
А вот еще например:
Но если ты хочешь считать, что все одноразово, саи не дает результаты тренинга моделей Гуглу (что прямо написано), то пожалуйста. Кто я такой, чтобы спорить.
Отредактировано (2024-12-25 02:52:13)
Дальше сам.
Ну? И? Как это опровергает тейк что создатели Саи получили бабки от гугла и забили болт на качество сервиса?
Как это опровергает тейк что создатели Саи получили бабки
Так никто ж не опровергал тейк, что они получили бабки. Опровергали тейк, что они "сидят на зарплате гугла".
Дранон, который не в курсе ситуации, но внимательно читает спор
Опровергали тейк, что они "сидят на зарплате гугла".
Ну это семантика блин. Все прекрасно поняли что имелось в виду, кроме анона с пруфами которому припекло срочно доказать свою икспертность в вопросе.
Опровергали тейк, что они "сидят на зарплате гугла".
Но опровержения так и не поступило. Никто не доказал, что сделка была единоразовой. В саи не больше 200 сотрудников (сейчас, возможно, больше). Неэксклюзивное соглашение вполне может включать в себя не разовые выплаты.
Плюс:
The search giant also will sign a non-exclusive license for Character.AI's models, and also buy out venture investors at around a $2.5 billion valuation. The size of its total investment isn't being disclosed.
Где здесь опровержение что «не сидят на зарплате»? Никто не говорил, что Гугл поглотил саи и те теперь в одном офисе сидят, с чем вдруг тот анон начал спорить. Никто не утверждал, что это теперь внутреннее подразделение гугла. Речь шла про получение денег. Оно было? Было.
Отредактировано (2024-12-25 03:03:33)
не дает результаты тренинга моделей Гуглу (что прямо написано)
Сделки на миллиарды после которой из компании уходят основатели, обычно не многоразовые. В том, что ты принес, нигде не написано, что это многоразово, насколько я вижу.
И анон, прости, я не очень уверен, что ты разбираешься в ЛЛМ и понимаешь, что такое "результаты тренинга". Потому что это готовые веса обычно, Гуглу они вряд ли нужны, Гуглу, если и нужно что-то, кроме возвращения одного из контрибьюторов революционной бумаги про трансформеры, то данные.
а в плане кастомных OCов персонажей, а не фэндомных, как думаете, сейчас у какой платформы преимущество? НСФВ особо не важно, "они поцеловались и затемнение" мне будет вполне достаточно, а вот чтоб бот максимально помнил контекст и что у него в истории прописано, это хотелось бы.
Мне очень нравится ксоул, насчет величины контекста ничего не могу сказать, но характер держит прекрасно. Люблю ставить ботов в нетипичные для них ситуации, он пока ни разу не сбился.
несмотря на то, что они только для развлечения и годятся.
Ты бы хоть только за себя что ли говорил
Кстати, о Гугле, какие у кого впечатления от новых Гемини Джемини?
1121 норм, а вот 1206 мне не очень понравилась, проза хуже стала, кмк. А так - глупые но милые модели, которые очень любят подкидывать хорошие идеи, но при этом галлюцинировать все подряд и просто невероятно путаться в пространстве и времени. Кот наверное поможет с этим, но боюсь, что с котом проза будет на уровне гпт-3.5.
1121 норм, а вот 1206 мне не очень понравилась, проза хуже стала, кмк. А так - глупые но милые модели, которые очень любят подкидывать хорошие идеи, но при этом галлюцинировать все подряд и просто невероятно путаться в пространстве и времени. Кот наверное поможет с этим, но боюсь, что с котом проза будет на уровне гпт-3.5.
Да, я тоже не понял, почему у 1206 так проза просела по сравнению с 1121 и более ранними версиями. Но я не согласен, что они тупые, особенно 1206, ей как раз понимание пространства подтянули, мне кажется. До Сонета 3,5 еще, конечно, учиться и учиться, но 1206 (и 1121) меня приятно удивляют иногда. Сижу сейчас в основном на 1206, из проблем, помимо прозы, мне кажется, она прям сильно внимание теряет в середине контекста ближе к концу, надеюсь, как дотренирут, будет лучше.
Если честно, мне страшно даже пытаться прикручивать кот к Джеминям после 0801 и 0827, они очень любят написать в коте полной чепухи или наоборот, в коте вроде что-то нормальное а в ответе полная чушь... Вот Клоду кот явно помогает, а тут я что-то до сих пор не уверен.
Отредактировано (2024-12-25 03:20:56)
Но я не согласен, что они тупые, особенно 1206, ей как раз понимание пространства подтянули, мне кажется.
Вот я не особо это заметил, вроде снимает очередные трусы после снятия трусов как раньше) С другой стороны, лучше работает с суоа промптами, кодблоками и всякими такими псевдотехническими мелочами, так что может быть и так.
Если честно, мне страшно даже пытаться прикручивать кот к Джеминям после 0801 и 0827, они очень любят написать в коте полной чепухи или наоборот, в коте вроде что-то нормальное а в ответе полная чушь...
Главное, чтобы гугл вместе с котом еще не подтянул внутренний "мягкий" фильтр помимо внешнего.
лучше работает с суоа промптами, кодблоками и всякими такими псевдотехническими мелочами, так что может быть и так.
Я скачал пресет блоатмакс и стянул оттуда промпт на ХТМЛ элементы, иногда свайпаю на нем чтобы посмотреть, чего она мне интересного нарисует. Про ум, у нее все еще нет какого-то глубинного понимания многих вещей, мне кажется, не могу точно артикулировать, что имею в виду. То есть, вот Клод понимает, а она иногда прям видно что пытается, но не получается.
Трусы, мне кажется, это как раз проблема с аттеншеном, у меня есть бот, который ходит в полном доспехе со шлемом, и вот 1206 вроде в начале чата на небольшом контексте (5-6к вместе с чатом и пресетом+картой) не путается, понимает, что под шлемом лица не видно и т.п. А на 15к+ контексте иногда тупо забывает, снят шлем или надет. Видимо, потому что бот снял/надел шлем 10+ сообщений назад одной строчкой, и это все потонуло в контексте? Хз. Трусы конечно сложнее, потому что надо помнить, что персонажи обычно носят трусы, даже если их в промпте вообще нигде нет, это нужна модель мира внутри самой ЛЛМ. Иногда кстати она это делает, но проебывается чаще...
Главное, чтобы гугл вместе с котом еще не подтянул внутренний "мягкий" фильтр помимо внешнего.
Ой, я тоже надеюсь, что нет. Как сейчас нормально, я даже с фильтром сжился уже. Если честно, мне так нравится, какая Джеминька покладистая и сколько в ней энтузиазма, после взбрыков Клода по делу и не по делу...
Отредактировано (2024-12-25 04:11:03)
Вдобавок, все корпорации бредят какой-то высшей целью для текстовых нейронок, несмотря на то, что они только для развлечения и годятся.
Мягко говоря, развлечение - это всего лишь одна из функций нейронок, причем далеко не самая распространенная и нужная.
Но, как говорится, если у тебя есть молоток, то ты можешь либо построить с его помощью дом, либо ебнуть себе по пальцу, твое восприятие технологии говорит больше о тебе, чем о технологии.
Отредактировано (2024-12-25 10:52:05)
текстовые нейросети уже сейчас используют для кодирования и это очень удобно