Comments by "Pilum1000" (@Pilum1000) on "SciOne"
channel.
-
25
-
13
-
Процитирую : "В последние годы искусственным интеллектом стало принято называть практически всё, что касается нейросетей и алгоритмов машинного обучения — так проще и многим журналистам, и пользователям, которые не связаны с разработкой. Однако на самом деле до настоящего ИИ человечеству ещё далеко, а в GPT-3 нет, собственно, «интеллекта».
Хотя многие первые пользователи GPT-3 говорили, что алгоритм пишет текст, неотличимый от человеческого, и выдаёт осмысленные предложения, на самом деле внутри это всё тот же генератор текста по запросу — со всеми достоинствами и недостатками. Многие ошибочно считают, что система «понимает» контекст: на самом деле она оценивает связи между отдельными словами и расставляет наиболее вероятные слова друг за другом.
Универсальность и аккуратность GPT-3 — результат хорошей работы инженеров, а не «ума» алгоритма. В лучшем случае нейросеть умело бросает пыль в глаза, выдавая текст, похожий на человеческий, но даже таким примерам не хватает глубины проработки: это больше похоже на копирование и вставку готовой информации, нежели на осмысленный подход.
Как отметил исследователь в области ИИ Джулиан Тогелиус, зачастую GPT-3 ведёт себя как студент, который не подготовился к экзамену заранее и теперь несёт всякую чушь в надежде, что ему повезёт. "
...
Отсутствие «интеллекта» в подобных GPT-3 моделях подтверждается и исследованиями. В 2019 году команда учёных из Школы Пола Аллена и Вашингтонского университета выяснила, что даже самые лучшие языковые алгоритмы можно легко поставить в ступор, задавая всё более абсурдные вопросы.
В результате исследователи пришли к выводу, что ни одна нейросеть просто не понимает контекст беседы, поэтому не может нормально реагировать на глупые вопросы
Как отметили учёные, основная задача осталась нерешённой. Машины всё ещё не могут делать логические выводы из текста и выводить одно из другого, как люди.
В этом смысле GPT-3 не слишком превосходит, к примеру, «нейрокомментарии», которые тоже могли продолжить фразу за пользователей. Иногда везло и получалось смешно, но чаще — абсурдно и неуместно: до нормального варианта можно было кликать достаточно долго.
Исследователи считают, что подход в наращивании параметров и данных для обучения моделей сам по себе может оказаться неверным.
8
-
7
-
6
-
4
-
4
-
4
-
"уходит в бесконечность" - никакие бесконечности тут не при чем
Воообще выпуск наполнен пафосным бредом :))
"тебе нужнааа самому проверить"... вах... предусматривать любые ошибки - это обязанность программиста, ха ха.
null - это просто ничто :>
и "указатель" - это особый "адресный", а точнее - указующий, а не физическо-адресный, ха ха - тип данных, это собственно (в абстракциях) - не число :> и null поэтому не ноль, все это возня с именно абстракциями
а к "аццким, кошмарным мученьям" это приводит у тех, кто программы писать не умеет и их тестировать :>> Некоторые языки программирования, впрочем, поддерживают подобные подходцы - не говоря о всяких манагерах-буржуях, которые лишь денег побыстрее жаждут - пусть и за недоработанный хлам...
3
-
3
-
2
-
2
-
@Derian_De_Grey "И да. Фундаментально её способ обработки информации сильно подобен тому как это делают животные, в том числе и как человек." - дело в том, что как я и говорил - некоторые общие принципы работы НЕКОТОРЫХ нейросетей серьезно отличаются у человека и таракана. Точнее у второго их просто нет, например, - неокортекса, а следовательно и абстрактного мышления, и вообще мышления, нет и еще кое-чего (см. лимбический комплекс).... См. "Определение Морали" на атеизм ру.
И также все это - используется на самом деле и при распознавании образов и оперировании ими и т.д.
"то что её работа эмулируется на основе цифровой системы не отменяет тех же самых нейросетевых принципов функционирования, как у любых других животных." - согласен и всегда был согласен, но и что ? - см. выше. :>
См. также что обобщения типа "любых других животных" - совершенно тут неадекватны. Ибо животные эти совершенно разные по развитию ЦНС.
"Приравнивать нейронку к обыкновенной машине Тьюринга, куда более серьёзный "признак профессиональной незрелости"." - а этого тут никто вовсе нигде - и не делал. :> Отметим, однако - наши(именно наши) био-нейронки обладают способностью не только к построению мыслительных абстрактных обобщений и такого моделирования, но и к построению образных именно моделей (так или иначе - к моделированию - что делаем - и мы - на машинах Тьюринга (а не они сами, коэшн) :>) - ничего такого у этих и-нейронок нет. Как и у тараканов.
2
-
2
-
1
-
1
-
1
-
1
-
1
-
1
-
1
-
1
-
1
-
1
-
1
-
1
-
1