Comments by "Pilum1000" (@Pilum1000) on "SciOne" channel.

  1. 25
  2. 13
  3. Процитирую : "В последние годы искусственным интеллектом стало принято называть практически всё, что касается нейросетей и алгоритмов машинного обучения — так проще и многим журналистам, и пользователям, которые не связаны с разработкой. Однако на самом деле до настоящего ИИ человечеству ещё далеко, а в GPT-3 нет, собственно, «интеллекта». Хотя многие первые пользователи GPT-3 говорили, что алгоритм пишет текст, неотличимый от человеческого, и выдаёт осмысленные предложения, на самом деле внутри это всё тот же генератор текста по запросу — со всеми достоинствами и недостатками. Многие ошибочно считают, что система «понимает» контекст: на самом деле она оценивает связи между отдельными словами и расставляет наиболее вероятные слова друг за другом. Универсальность и аккуратность GPT-3 — результат хорошей работы инженеров, а не «ума» алгоритма. В лучшем случае нейросеть умело бросает пыль в глаза, выдавая текст, похожий на человеческий, но даже таким примерам не хватает глубины проработки: это больше похоже на копирование и вставку готовой информации, нежели на осмысленный подход. Как отметил исследователь в области ИИ Джулиан Тогелиус, зачастую GPT-3 ведёт себя как студент, который не подготовился к экзамену заранее и теперь несёт всякую чушь в надежде, что ему повезёт. " ... Отсутствие «интеллекта» в подобных GPT-3 моделях подтверждается и исследованиями. В 2019 году команда учёных из Школы Пола Аллена и Вашингтонского университета выяснила, что даже самые лучшие языковые алгоритмы можно легко поставить в ступор, задавая всё более абсурдные вопросы. В результате исследователи пришли к выводу, что ни одна нейросеть просто не понимает контекст беседы, поэтому не может нормально реагировать на глупые вопросы Как отметили учёные, основная задача осталась нерешённой. Машины всё ещё не могут делать логические выводы из текста и выводить одно из другого, как люди. В этом смысле GPT-3 не слишком превосходит, к примеру, «нейрокомментарии», которые тоже могли продолжить фразу за пользователей. Иногда везло и получалось смешно, но чаще — абсурдно и неуместно: до нормального варианта можно было кликать достаточно долго. Исследователи считают, что подход в наращивании параметров и данных для обучения моделей сам по себе может оказаться неверным.
    8
  4. 7
  5.  @Derian_De_Grey  "по твоей логике, у животных тоже нет разума" - конечно - нет. Далее - общий термин "животные", распространяемый на организмы от амебы до шимпанзе - неадекватен - в таком контесте . Остановимся на тараканах, ибо рассуждать о недискретности разума и его определения и особенно в случае существ с высокоразвитой ЦНС, наиболее близких к человеку - тут, в теме об искусственных нейронных сетях рассуждать об этом - не представляет ни малейшего интереса. " Chat-gpt бла бла " - фигня. Я видел их в работе. Впечатления не произвело :> В разговоре это попугаи без понимания контеста. Там еще пробовали чтоб она программы типа выдавала - для самых примитивнейших случаев (и все эт ничто иное как программирование на естественном языке - все надо описывать) - ну так ошибки шлепает ваше нейронство - и в самых примитивных случаях "Меня поражает уровень глупости людей, " - вся эта риторика пафосная тут ни к чему.
    6
  6. 4
  7. 4
  8. 4
  9. 3
  10. 3
  11. 2
  12. 2
  13.  @Derian_De_Grey  "И да. Фундаментально её способ обработки информации сильно подобен тому как это делают животные, в том числе и как человек." - дело в том, что как я и говорил - некоторые общие принципы работы НЕКОТОРЫХ нейросетей серьезно отличаются у человека и таракана. Точнее у второго их просто нет, например, - неокортекса, а следовательно и абстрактного мышления, и вообще мышления, нет и еще кое-чего (см. лимбический комплекс).... См. "Определение Морали" на атеизм ру. И также все это - используется на самом деле и при распознавании образов и оперировании ими и т.д. "то что её работа эмулируется на основе цифровой системы не отменяет тех же самых нейросетевых принципов функционирования, как у любых других животных." - согласен и всегда был согласен, но и что ? - см. выше. :> См. также что обобщения типа "любых других животных" - совершенно тут неадекватны. Ибо животные эти совершенно разные по развитию ЦНС. "Приравнивать нейронку к обыкновенной машине Тьюринга, куда более серьёзный "признак профессиональной незрелости"." - а этого тут никто вовсе нигде - и не делал. :> Отметим, однако - наши(именно наши) био-нейронки обладают способностью не только к построению мыслительных абстрактных обобщений и такого моделирования, но и к построению образных именно моделей (так или иначе - к моделированию - что делаем - и мы - на машинах Тьюринга (а не они сами, коэшн) :>) - ничего такого у этих и-нейронок нет. Как и у тараканов.
    2
  14. 2
  15. 1
  16. Чесн, весь этот пафос, ведущий к т.н. нейрокомпьютерам и болтовня об "иных архитектурах, которые как принцип давно известны" - напоминает хрень что не пришей вода. Если подумать реально :> Нейронки - это лишь решающие устройства (каким бы пчелиным прополисом они не были сейчас) - но не моделирующие. Пчела - не текстовой процессор... и не игра. И не прочие необходимые нам инструменты... программные. То есть программы машины Тьюринга в архитектуре фон Неймана. И обучать пчелу быть Civilization - вместо того чтоб написать Civilization - это тупость. :> И пчела (нехрена не "потресающая эффективность")... - не инструмент. А тупо насекомое (ну или набор условных рефлексов такого уровня - что и напоминает существующие ныне нейронки) :> Мне не надо чтоб пчела (или кпк) распознавало мое настроение и не надо корчить из себя гамадрила беседующего с Alisa. Мне охота в Civ-у поиграть. :> Или самому текст написать - и да - без процедурного программинга это невозможно даж если надиктовывать И да - то что сейчас крутится - не ИИ. ИИ - это лишь сильный ИИ.
    1
  17. 1
  18. 1
  19. 1
  20. 1
  21. 1
  22. 1
  23. 1
  24. 1
  25. 1
  26. 1
  27. 1