Вы не вошли.
Когда я говорил, что лифт 100% безопасный, я имел ввиду. что человек внутри не умрет.
Лол.
Анон пишет:Когда я говорил, что лифт 100% безопасный, я имел ввиду. что человек внутри не умрет.
Лол.
Да блин, вам с нуля весь контекст каждый раз расписывать? У вас память меньше 25 тысяч последних знаков?
Лифт, конструкция которого соответствует правилам безопасности, и в котором регулярно проводится обслуживание\проверка узлов, во время штатной работы, ИСКЛЮЧАЯ случаи форс-мажора (пожар\отвалилась стена\в лифт зашел грабитель\вы решили накинуть себе на шею петлю и выкинуть вторую часть веревки из лифта) безопасен на протяжении гарантийного срока.
безопасен на протяжении гарантийного срока.
Самолет тоже какбе...
Самолет тоже какбе...
Ну они и летают почти автоматически. Но небо не шахта, ветерок подул\птичка залетела\etc., изредка пилотам приходится брать управление на себя.
Если честно, я не очень понимаю, что ты пытаешься сейчас аргументировать.
Но небо не шахта, ветерок подул\птичка залетела\etc., изредка пилотам приходится брать управление на себя.
И общаться с диспетчерами на протяжении всего полета. Не только слушая их указания (вспоминаем ролик с МакЭвоем и Глазго, лол), но и разруливая конфликтные ситуации, в том числе этические. Грубо говоря, нейронка не даст аргументации на проблему вагонетки и не ответит за свои ошибки.
на химпроизводствах после взрывов тоже виноватых находят
Но небо не шахта, ветерок подул\птичка залетела\etc., изредка пилотам приходится брать управление на себя.
И общаться с диспетчерами на протяжении всего полета. Не только слушая их указания (вспоминаем ролик с МакЭвоем и Глазго, лол), но и разруливая конфликтные ситуации, в том числе этические. Грубо говоря, нейронка не даст аргументации на проблему вагонетки и не ответит за свои ошибки.
В тот момент когда ИИ научатся решать такие проблемы с меньшим количеством ошибок, чем люди - пилоты станут не нужны. Конечно будут проблемы с наказанием виновных в случае аварии, но зато аварий будет меньше
В тот момент когда ИИ научатся решать такие проблемы с меньшим количеством ошибок, чем люди
Почему ты думаешь, что это случится? Вот ты говоришь, что нейросети эволюционируют, а люди нет - но ведь это неправда, люди накопили огромный опыт за века и все лучше и эффективнее делают свои работы. А вот нейросети пока не показывают способности учиться на чужом опыте или хотя бы на ошибках, только компилировать, включая ошибки - они их просто не распознают, так откуда возьмется меньшее число ошибок? Особенно в областях, где ошибка - это не 2x2=5, а чуть менее спорное решение из десятка возможных, которое выбирается на основе этики.
Лично я думаю, что переводчиков станет, наоборот, больше - именно потому, что машинный перевод как инструмент живого переводчика позволяет занимать такие ниши, где раньше это было невыгодно или невозможно. Предпереводческий анализ, предподготовка к МТ, корректировка и обучение МТ, постредактура - все это будут делать люди, и им нужно переводческое образование и опыт, да посильнее, чем для "живых" переводов с нуля". Новые рабочие места, новые учебные специальности, профессия цветет.
Отредактировано (2023-03-21 10:32:10)
Почему ты думаешь, что это случится? Вот ты говоришь, что нейросети эволюционируют, а люди нет - но ведь это неправда
Это правда. Вернее сказать люди эволюционируют (например за последние 20 000 лет головной мозг в среднем уменьшился), но очень медленно. С машинами, по темпам "эволюции", людям никак не сравнится
А вот нейросети пока не показывают способности учиться на чужом опыте или хотя бы на ошибках, только компилировать
Нейросети по определению учатся "на ошибках". Почитайте по генетические алгоритмы и как они работают (Докинз ЕМНИП об этом популярно писал)
Особенно в областях, где ошибка - это не 2x2=5, а чуть менее спорное решение из десятка возможных, которое выбирается на основе этики.
С этикой у машин (лишенных чувства самосохранения), куда лучше чем у людей. То есть там где пилот (с некоей вероятностью) будет спасать свою тушку, компьютерная программа будет просчитывать вариант с наименьшим числом жертв
Отредактировано (2023-03-21 10:58:12)
То есть там где пилот (с некоей вероятностью) будет спасать свою тушку, компьютерная программа будет просчитывать вариант с наименьшим числом жертв
Компьютерная программа будет считать то, что ей скажут считать. Проблема же в том, что человек может распознать этически серую ситуацию, и сделать этический выбор, а программа может распознать только те ситуации, которым её научили разработчики.
Вообще, анон, мне кажется, что у тебя не очень хорошо с пониманием того как именно работают компьютеры и нейронки.
И там где обычный человек говорит о вероятностях, ты пишешь о неизбежности именно поэтому.
Все аргументы про технически это не так работает ты игнорируешь, опираясь на свою веру в то что прогресс неизбежен, и прогресс пойдет именно в этом направлении.
Все-таки не стоит говорить о своей вере в превосходство ИИ как об объективном факте.
То есть там где пилот (с некоей вероятностью) будет спасать свою тушку, компьютерная программа будет просчитывать вариант с наименьшим числом жертв
Компьютерная программа будет считать то, что ей скажут считать. Проблема же в том, что человек может распознать этически серую ситуацию, и сделать этический выбор, а программа может распознать только те ситуации, которым её научили разработчики.
Вообще это не так (нейросетки способны учится вещам, которые разработчики нейросетки в нейросетку не закладывали)
Да и при чем здесь "этический" выбор? Для того чтобы заменить человека-пилота на программу, достаточно будет того, что программа реже допускает аварии, и соответственно сохранять человеческие жизни.
Отредактировано (2023-03-21 12:01:58)
Вряд ли загруженную в модель информацию специально мэппили как "правильную" и "неправильную".
Думаю, что не мэппили.
Кроме того, у ChatGPT есть такая вещь, как «галлюцинации» — когда нейросеть чего-то «не знает», но всё равно выдаёт ответ уверенным тоном.
Вернее сказать люди эволюционируют (например за последние 20 000 лет головной мозг в среднем уменьшился), но очень медленно. С машинами, по темпам "эволюции", людям никак не сравнится
Я не понимаю, откуда у тебя такие данные.
Нейросети по определению учатся "на ошибках". Почитайте по генетические алгоритмы и как они работают (Докинз ЕМНИП об этом популярно писал)
По определению чего? Откуда ты берешь сведения о том, как учится нейросеть?
С этикой у машин (лишенных чувства самосохранения), куда лучше чем у людей. То есть там где пилот (с некоей вероятностью) будет спасать свою тушку, компьютерная программа будет просчитывать вариант с наименьшим числом жертв
Этика - это не про меньшее число жертв. Этику науки ты определенно в лицо не видел.
(нейросетки способны учится вещам, которые разработчики нейросетки в нейросетку не закладывали)
Например?
Да и при чем здесь "этический" выбор?
При том, что для ввода в эксплуатацию нужно продумать и такие ситуации тоже. И нет, "сохранять человеческие жизни" не является верным вариантом по умолчанию.
Анон пишет:
Вернее сказать люди эволюционируют (например за последние 20 000 лет головной мозг в среднем уменьшился), но очень медленно. С машинами, по темпам "эволюции", людям никак не сравнитсяЯ не понимаю, откуда у тебя такие данные.
Об уменьшении обьема мозга? Ну например https://antropogenez.ru/article/493/
Анон пишет:
(нейросетки способны учится вещам, которые разработчики нейросетки в нейросетку не закладывали)Например?
Например нейросетку (созданную для рисования, но ничего не умеющую) можно научить рисовать цветы, или монстров Ктулху или обнаженных нимф
Нейросети по определению - это программы которые обучаются
Отредактировано (2023-03-21 14:27:28)
Об уменьшении обьема мозга?
О медленной эволюции людей и быстрой эволюции нейросеток. Ты для начала термин смени, а то подменяешь на два разных. А во-вторых, предоставь данные о начальной и конечной точке оценки в рамках одного конкретного действия. Например, рулежки самолетом. Или хотя бы рисования картинок.
эм. Я тут один вижу противоречие?
Он считает, что если нейросетка нарисовала что-то незапрошенное, это не ее научили, а она сама научилась. Откуда, по какому принципу - он не в курсе.
О медленной эволюции людей и быстрой эволюции нейросеток
можно ли считать эволюцию нейронок быстрой, если амеба может научиться перерабатывать новый для нее материал в энергию за то время, которое нейросетке нужно на обучение....
можно ли считать нейронок эволюционирующими, если они не размножаются
Что вообще значит "быстрая эволюция" в этом контексте? Мб анон* быстрое развитие имел ввиду?
Так у нас и паровые двигатели\самолеты\процессоры быстро развивались первые 20 лет, пока не уперлись в потолок возможностей.
Поменяв мир, в котором мы живем, но ни разу его не захватив
если они не размножаются
Это пока
У человека от рождения встроена в мозг "нейросетка" для пользования речью. Но человек может вообще не научится речи (если его воспитывали обезьяны), может научится английскому, может финнскому или японскому. Соответсвующие машинные алгоритмы работают также вот есть сетка приспособленная для обучения, она учится. Она изначальна приспособлена для обучения - точно так же как человек от природы приспособлен для обучения
Отредактировано (2023-03-21 16:41:55)
У человека встроена в мозг "нейросетка" для пользования речью. Но человек может вообще не научится речи (если его воспитывали обезьяны), может научится английскому, может финнскому или японскому. Соответсвующие машинные алгоритмы работают также
Во-первых, нет, не также. Это абсолютно разные вещи, которые работают разными способами.
Во-вторых, как это относится к вопросу "есть ли противоречие между утверждением "нейросетку, созданную для рисования, можно научить рисовать" и "нейросетки способны учится вещам, которые разработчики нейросетки в нейросетку не закладывали"
Это твой аргумент был, кстати, или ты просто вклинился?
Кроме того, у ChatGPT есть такая вещь, как «галлюцинации» — когда нейросеть чего-то «не знает», но всё равно выдаёт ответ уверенным тоном.
Мне кажется, ты некорректный пример галлюцинации привел - сеть просили представить что она в хогвартсе - вполне себе рецепт для зелья в школе магии
Но человек может вообще не научится речи (если его воспитывали обезьяны), может научится английскому, может финнскому или японскому.
Блин, научись уже русскому хотя бы, тебя читать - как промтом пользоваться.
Когда человек учится первому языку, он сначала повторяет звуки, потом создает из них свой детский "язык", потом из речевых примеров выводит правила реального разговорного языка, формулирует новую речь по этим правилам, экспериментирует с ее границами и языковой игрой, потом корректирует по внешним поправкам, потом учит формальные правила и подчиняет им свою речь, потом понимает, что кроме нее есть другие допустимые виды речи и творит свободно по их правилам. Нейросеть из всего этого использует только речевые примеры и готовые формальные правила, корректировать ее творчество - это внести поправки в ее код или набор примеров, рекомендации она не воспринимает, а правила норовит нарушить, потому что реальные примеры их типа переопределяют. Все то, что в человеке определяет культурный контекст, нейросеть не понимает вообще.
сеть просили представить что она в хогвартсе - вполне себе рецепт для зелья в школе магии
У этого зелья есть конкретный рецепт, в сети есть конкретные книги с этим рецептом, но она не умеет соотнести одно с другим.
Отредактировано (2023-03-21 17:33:08)