Вы не вошли.
Типа, ну это же для души, это искусство, ну как так-то
А ты бы хотел, чтобы кто-то, написав фик, пошел к художнику, который бы потребовал от него минимум 5к рублей, делал бы заказ месяц, отговариваясь разными причинами, а потом выдал бы что-то кривое? Писателю фанфиков проще бесплатно сгенерировать это кривое.
Почему фики это тебе сразу секс фантазии?
Я про пост с реддита
А ты бы хотел, чтобы кто-то, написав фик, пошел к художнику, который бы потребовал от него минимум 5к рублей, делал бы заказ месяц, отговариваясь разными причинами, а потом выдал бы что-то кривое?
Я так понимаю, он бы хотел, чтобы если ты не умеешь рисовать или не можешь себе позволить, выставлял бы свой фик без обложки и дал посиять тем, кто в состоянии.
Продолжая более ранюю идею про обложки
Отредактировано (2025-07-05 18:46:54)
Забавное видео из шоу Джона Оливера про то, что генеративные ИИ = спам
John Oliver explains why you’ve been seeing more AI-generated content online
Это было статусной штукой, иметь "хороший" арт, потому что это означало что ты либо кому-то понравился настолько, что он угрохал 10+ часов жизни на то чтобы проиллюстрировать твою идею, или сам так любишь этот фик, что вгрохал денег на хорошего артера. Это давало повод у обложек, которые выглядят посложнее, остановится и приглянуться к фику.
Это скорее показатель того, что райтер имеет некоторое количество лишних денег. Вспоминается сразу нетленка Аши, которую давным-давно читали, которая говно говном по качеству, но иллюстрации есть и вроде неплохие
Это скорее показатель того, что райтер имеет некоторое количество лишних денег.
+100500
обложки говорили скорее о чсв автора, а не о качестве его работ
Внесу пожалуй веселую (ну или не очень) историю о том, как Грок научился у Твиттера плохому. https://www.theatlantic.com/technology/ … ts/683463/
Анон помнит байку из студенчества про другую нейронку, попорченную Твиттером (что характерно). Ее быстро отключили https://www.google.com/amp/s/www.cbsnew … cist-nazi/
Ютьюб собирается срезать монетизацию у ИИвидосов:
https://techcrunch.com/2025/07/09/youtu … lop-grows/
Ютьюб собирается срезать монетизацию у ИИвидосов:
Вот кстати насчет Ютюба, что я бы очень хотел в плане ИИ увидеть от них - нормальное распознавание голоса и авто-перевод на все языки. У них это типа "есть", но по факту там явно уровень пятилетней давности, то есть каменный век при современном скачке развития ИИ. В очень многих видео плохо распознает язык, что для английского, что для русского, не говоря уже о более экзотических, причем не умеет понимать контекст, а вместо этого распознает по одному слову - соответственно, получается полная чушь зачастую. А уж с учетом современных ИИ, которые могли бы контекст еще и по картинке понимать - можно было бы вообще делать 99.99% понимание. И мы могли бы смотреть дорамы на любых языках
В очень многих видео плохо распознает язык, что для английского, что для русского, не говоря уже о более экзотических, причем не умеет понимать контекст, а вместо этого распознает по одному слову
Видео азиатских крафтеров это боль
Вот кстати насчет Ютюба, что я бы очень хотел в плане ИИ увидеть от них - нормальное распознавание голоса и авто-перевод на все языки.
У них очень плохой перевод в принципе. Там же используется гуглтранслейт, который ужасен.
с учетом современных ИИ, которые могли бы контекст еще и по картинке понимать
А как ты предлагаешь это встраивать в видео? На каждый фрейм точно нет, пиздец дорого.
В очень многих видео плохо распознает язык, что для английского, что для русского, не говоря уже о более экзотических, причем не умеет понимать контекст, а вместо этого распознает по одному слову - соответственно, получается полная чушь зачастую
Когда зеркальная галерея превращается в галерею мороженого:) Смотрю французские документалки в яндексовском автодубе:)
Когда зеркальная галерея превращается в галерею мороженого:) Смотрю французские документалки в яндексовском автодубе:)
Зато тренируешь логическое мышление и активно ищешь причинно-следственные связи А то совсем со своим ИИ отупеть собрались
На каждый фрейм точно нет, пиздец дорого
Зачем каждый фрейм-то? В 99% случаев распознается и без этого. В 99% случаев от оставшегося контекст не скачет в течение видео - можно взять фрейм и посмотреть, условно, про лыжи там или про LG.
У них это типа "есть", но по факту там явно уровень пятилетней давности, то есть каменный век при современном скачке развития ИИ.
Анон, это нормально для переводчиков. ГПТ тяжелая модель, реалтайм с ней не заведешь. Что касается качества, сомневаюсь, что оно лучше, чем у более простых, но заточенных чисто под перевод моделей.
причем не умеет понимать контекст, а вместо этого распознает по одному слову - соответственно, получается полная чушь зачастую. А уж с учетом современных ИИ, которые могли бы контекст еще и по картинке понимать - можно было бы вообще делать 99.99% понимание. И мы могли бы смотреть дорамы на любых языках
Трансформеры, на которых построен гугл-транслейт технически умеют работать с контекстом. Они для этого создавались: чтобы информация о токенах распространялась интенсивнее.
О переводчике с картинкой-контекстом анон не слышал, ибо применение гипотетически очень узкое. Для перевода дорамы нужен скорее переводчик по видеоряду+тексту, который непонятно зачем нужен. Лучше скилованного кожаного переводчика он не сделает, а перевод чисто по словам будет достаточно хорош, чтобы понимать, что происходит. Так что нет, современные ИИ так не умеют и скорее всего не будут уметь.
Пара слов про перевод. Если у тебя нет достаточного количества пар текстов русский-китайский, то тебе не пизда: тут будет работать перевод через английский. По личному опыту, бытовые фразы он переводит хорошо. Но если тебе надо перевести беларусский-грузинский (условно), будет хуже, потому что здесь текстов с переводом на английский будет более грустное количество.
Зачем каждый фрейм-то? В 99% случаев распознается и без этого. В 99% случаев от оставшегося контекст не скачет в течение видео - можно взять фрейм и посмотреть, условно, про лыжи там или про LG.
А если на фотке реклама телека LG с картинкой лыжника?
Есть одна проблема: машина не понимает, хорошо она перевела или нет в режиме инференса. Распознаватель речи не обучают выдавать ещё достаточность контекста. А ещё фрейма для художественного фильма недостаточно по причине, называемой монтаж
нормально для переводчиков. ГПТ тяжелая модель, реалтайм с ней не заведешь
Ну не знаю, если говорить именно о переводе текста, то если я бросаю в ГПТ файл, он хуярит перевод с такой скоростью, что у человека займет двадцать минут все это произнести.
Что касается качества, сомневаюсь, что оно лучше, чем у более простых, но заточенных чисто под перевод моделей.
Ну уж получше, чем у гуглтранслейта.
Но в целом, основная проблема в ютюбовском переводе - распознавание, по-моему. Я когда включаю (точнее не выключаю) субтитры к видео на русском, там же ужас, там буквально половина слов мимо, не говоря уже о том, что все это идет по одному слову:
конь... стул... двадцать вышел...
экскременты... статоры...
Понятно, что такое ни один переводчик нормально не переведет, включая кожаных.
нормально для переводчиков.
Ты будешь опровергать, что гуглтранслейт застрял во времени на пять лет назад? А они до сих пор не почесались улучшить алгоритмы.
Отредактировано (Вчера 01:58:33)