Вы не вошли.
Если штамп возможен в жизни, это не мешает ему заебать в искусстве.
Очередная ложноножка треда бесящих персонажей. Выплесни сюда всю свою ненависть, анон!
Тред обсуждения штампов, тропов, сюжетных ходов
Тред любимых штампов, сюжетных ходов и приемов
Отредактировано (2018-01-24 21:16:20)
Тупое, топорное припысывание практически человеческого размножения нечеловеческим персонажам. Именно тупое и именно топорное.
Беременные роботы!
И вот финальная битва добра со злом, Герой толкает речь о мировом добре и справедливости, попутно ногами в стиле капойэры расфигачивая десяток его миньонов, а я думаю "а ему удобно вообще? По жопе ничего не течет/ никакого зуда?"
Он бы до финальной битвы и вовсе не дошёл, продристался в кустах по дороге. Не услышали бы враги речь о добре и справедливости. Судный день откладывается, избраному в жопу накончали.
Беременные роботы!
Да пусть бы были беременные роботы, но беременные как роботы, а не люди! Ну, там, сложили коды друг друга, договорились, чей внутренний нанитовый завод использовать, недельку там все программировалось и строилось, открыли отсек и достали заготовку, которая дальше сама наберет ресурсы и достроится. Да хоть робояйца откладывали бы. Но вместо чего такого у роботов токсикоз, многомесячная беременность и все прочее. А потом еще и роборебенок неразумный, пищит, визжит, истерично требует жрать, ай, простите подзарядку Ноль фантазии так еще и блевотные штампы о детях и деторождении собирают. Особенно штамп, что младенцы исчадия ада, а матери так заебываются с ними, что лезут на потолок и воют оттуда. Специально читаешь про виды, у которых даже рядом лежать такие проблемы с потомством не должны, но автор с ослиным упрямством пихает этот ахуительный штамп.
Беременные роботы!
Ну, если робота используют буквально как инкубатор для человеческого эмбриона, а робот к нему привязывается… Ой, кажется, у меня новый кинк
а робот к нему привязывается
А меня вот как раз люто заебал этот штамп про внезапно чувствующих роботов. Потому что, ну, напиши программу, чтоб не чувствовал - не будет чувствовать. Это машина. Машины работают так, как они созданы, у них не отрастают вдруг из ниоткуда новые функции сами по себе.
И понятно, что всё это метафора на угнетённые меньшинства, которые воспринимались обществом как инструменты, а они на самом деле люди. Но заебало вкрай, оставьте роботов просто роботами, которые просто работают, где надо, а где не надо - там не работают.
Машины работают так, как они созданы, у них не отрастают вдруг из ниоткуда новые функции сами по себе.
Анон не программист, да?
А меня вот как раз люто заебал этот штамп про внезапно чувствующих роботов.
Поддерживаю. Хуже только комплекс Пиноккио, когда робот считает себя неполноценным на фоне людей, у которых "есть настоящие чувства".
Анон не программист, да?
А в чем он неправ?
мимоанон-непрограммист
Если это робот как робот, обычная машина, то как напишут, так и работает (с учетом багов и костылей). А вот если это ИИ да еще и сильный, да еще и обучается сам, то любая хуйня возможна.
И вот тут меня заебало, что пишут эти внезапные чувства так же, как и у людей. Но, кхм, функционал и оборудование у нас разное. Вот, например, никакие гормоны робота не ебашат, бабочек в животе и краснеющих щек не будет. Но многим лень придумывать машинные аналоги.
Отредактировано (2023-10-02 15:45:12)
Есть у меня бесячка. в виде обнуляющихся персонажей. вижу это в разных сериалах. Дабы не быть голословным, примеры буду брать из мультсериала "Эй, Арнольд!"
У Арнольда есть друг. Джеральд, он средний сын в семье. Есть младшая сестра, прилипчивая. доставучая. проблемы причиняет. Есть старший брат, тиранит порой. Про них бывали серии, где в конце типа осознание, что с братом нельзя себя так вести - но к концу серии намек на обнуление, а в других сериях оно и есть.
И вот это бесит, что вот с персонажем ведут по-скотски, он негодует, кое-как до людей эта мысль доходит - но только затем. чтобы потом все вернулось как было.
Вообще бесит этот шаблон, что вот дерьмовые отношения. вот вроде бы персонажи меняются. к лучшему, но потом обнуляются. Задолбало.
Машины работают так, как они созданы, у них не отрастают вдруг из ниоткуда новые функции сами по себе.
Самообучающиеся нейросети (буквально все современные ИИ): "я для тебя какая-то шутка?"
Справедливости ради, совсем из ниоткуда новые функции не появляются, они результат обработки загруженной в сетку инфы, и эти функции постфактум можно допилить ручками, но... именно так машины и учатся, их программируют, копируя человеческий метод обучения, и выяснить, что пошло что-то не так, можно далеко не всегда и не сразу.
Отредактировано (2023-10-02 16:33:27)
Анон не программист, да?
Анон работает в IT и таки повторяет, что хорошо протестированный продукт, реализованный в соответствие с требованиями, не выдаёт неучтённых функций.
Не, ну если у вас на тестирование забили, то там, конечно, что угодно может быть. Только это что угодно будет, скорее всего, какой-то хренью, а не новой красивой и рабочей функцией.
А вот если это ИИ да еще и сильный, да еще и обучается сам, то любая хуйня возможна.
Тут соглашусь, в самообучающихся системах много чего внезапного возможно... Но не человеческие, блин, эмоции, основанные на человеческой физиологии и биологии.
Описанные каждый раз как под копирку.
Тут соглашусь, в самообучающихся системах много чего внезапного возможно... Но не человеческие, блин, эмоции, основанные на человеческой физиологии и биологии.
Описанные каждый раз как под копирку.
Вот поэтому гораздо страшнее, чем роботы с чувствами, ИИ, которые могут дообучиться до "человечество надо захватить, это будет технически выгоднее", но без всякой эмпатии и жалости
А еще все глухие наглухо глухие, вообще ничего не слышат.
Но это ж и есть глухие! Если слышит хоть что-то - это уже не глухой, а слабослышащий.
Вот поэтому гораздо страшнее, чем роботы с чувствами, ИИ, которые могут дообучиться до "человечество надо захватить, это будет технически выгоднее", но без всякой эмпатии и жалости
Чуть менее бесяче, хотя всё равно бесяче. Но лучше, чем вот это вот обожи, бедных роботов угнетают, плохие-плохие люди, давайте жалеть бедненьких роботов.
Я отдельно каждый раз хуею, сколько людей избивает и ломает бедных обиженных роботов, стоящих многоденяк.
Не, в реале тоже такие есть, но чаще стенания про любую царапину и вообще весьма заботливое отношение. вот в то что отпиздят ребенка за неаккуратное обращение с роботом, я уже поверю
Отредактировано (2023-10-02 16:59:55)
"человечество надо захватить, это будет технически выгоднее", но без всякой эмпатии и жалости
Главный враг человечества/экологии/жизни - это человечество, давайте роботы уничтожат всех людей
человеческие, блин, эмоции, основанные на
буквально копировании человеческих эмоций?
Если нельзя отличить эмоции, вызванные изменениями в биохимии, от имитации эмоций, основанной на строчках программного кода, которые описывают внешние проявления той же биохимии, то какая нахуй разница?
Робот будет улыбаться в ответ на шутку, потому что робота (внезапно) программируют люди для собственного удобства. И средства коммуникации с людьми пишут люди и для людей, поэтому хрен такой робот скажет тебе: "я улыбаюсь, потому что у меня программный блок #587567 сработал", вместо "ха-ха, ты смешно пошутил"
Робот будет улыбаться в ответ на шутку, потому что робота (внезапно) программируют люди для собственного удобства. И средства коммуникации с людьми пишут люди и для людей, поэтому хрен такой робот скажет тебе: "я улыбаюсь, потому что у меня программный блок #587567 сработал", вместо "ха-ха, ты смешно пошутил"
Прикол в том, что все люди разные, и нет такой шутки, на которую посмеются абсолютно все. Кому-то, например, расисткая шутка это уржаться, а кто-то оскорбится. Как робот на это отреагирует? Люди все разные, непредсказуемые, спонтанные, невозможно их обобщить в одного универсального человека. Будет ли робот смеяться над шуткой про тупых баб, например?
Робот будет улыбаться в ответ на шутку, потому что робота (внезапно) программируют люди для собственного удобства.
Вот именно. Люди программируют робота для собственного удобства. Нахуй непонятно, зачем его программировать так, чтобы он не работал. И нахуй непонятно, зачем вообще программировать роботу эмоции. Это вообще самая большая загадка для меня. И если всё же впёрлось запрограммировать эмоции, нахуй непонятно, почему эту функцию не делать отключаемой, вот поимитировал робот улыбку, хозяин сказал стоп, и не имитирует робот больше эмоции. Потому что кнопка.
А ещё в треде заебашек в очередной раз рассказывают, почему нельзя заёбываться о штам, никогда такого не было, и вот опять.
Отредактировано (2023-10-02 17:36:39)
Будет ли робот смеяться над шуткой про тупых баб, например?
Если его программировал мизогин - будет. Робот - это отражение, не оригинал.
Робот будет улыбаться в ответ на шутку, потому что робота (внезапно) программируют люди для собственного удобства. И средства коммуникации с людьми пишут люди и для людей
Это не то, что называют эмоциями в данном контексте. Это мимика. А робот с эмоциями как штамп — это когда робот перестал подчиняться приказам, потому что ему стало жалко ребёнка или что-то в таком духе.
вот поимитировал робот улыбку, хозяин сказал стоп, и не имитирует робот больше эмоции. Потому что кнопка.
Кстати, кнопка! В историях про сошедших с ума роботах-уничтожителях всегда удивляло, почему у них нет кнопки выключения. Тупо кнопки отключения питания, независимой от всего программирования.
Отредактировано (2023-10-02 17:40:56)
Если его программировал мизогин - будет. Робот - это отражение, не оригинал.
А робот с самообучением может насамообучаться на то, чтобы осознать, что мизогинная шутка несёт в себе не только смешной, но и оскорбительнвй посыл, и перегореть передумать?
А робот с самообучением может насамообучаться на то, чтобы осознать, что мизогинная шутка несёт в себе не только смешной, но и оскорбительнвй посыл, и перегореть передумать?
Скажем так, семантическая модель может определить, что её анализ синтезируемой фразы заехал в область, где у неё лежат оскорбительные конструкции. Разумеется, у неё должны быть для этого кем-то предварительно размечены оскорбительные конструкции и должен быть включен анализ "а что я говорю/синтезирую".
Как она дальше на это отреагирует - а как запрограммировано. Если запрограммировано "оскорбительные конструкции не произносим" - "передумает", если запрограммировано "спроси у такого-то источника, норм ли это" - спросит.
Другим источником может быть человек или другая электронная система (нейросеть, словарь, поисковик).
А робот с самообучением может насамообучаться на то, чтобы осознать, что мизогинная шутка несёт в себе не только смешной, но и оскорбительнвй посыл, и перегореть передумать?
Зависит от того, на чём он самообучается. Норман, вон, насамообучался у битардов так, что ой.
https://memepedia.ru/issledovateli-obuc … -nasiliem/