forum.wfido.ru  

Вернуться   forum.wfido.ru > Прочие эхи > SU.POL

Ответ
 
Опции темы Опции просмотра
  #1  
Старый 26.07.2023, 19:03
Boris Paleev
Guest
 
Сообщений: n/a
По умолчанию GPT-4 тупеет на глазах

Boris Paleev написал(а) к All в Jul 23 17:36:46 по местному времени:

Нello All!

https://aftershock.news/?q=node/1271103

GPT-4 тупеет на глазах

09:31 - 26/Июл/23 Георгий Васильев

Сверкающий дворец воображаемого прекрасного будущего человечества, в котором за нас будет думать Великий (и ужасный) Искусственный Интеллект, дал первые трещины. Первой забила тревогу группа исследователей из Великобритании и Канады, опубликовавшая в мае статью "Проклятие рекурсии: Обучение на сгенерированных данных заставляет модели забывать", в которой предупреждает, что использование при обучении лингвистических моделей контента, сгенерированного самими моделями (и сейчас активно заполняющего интернет), приводит к необратимым дефектам. Это, в свою очередь, приводит к коллапсу модели - "дегенеративному процессу, при котором со временем модели забывают истинное распределение исходных данных <...> этот процесс неизбежен даже для кейсов с почти идеальными условиями для долгосрочного обучения".

"Со временем ошибки усугубляются и в конечном счете заставляют модели, которые учатся на сгенерированных данных, еще больше искажать реальность, - прокомментировал VentureBeat один из ведущих авторов статьи Илья Шумайлов. - Мы были удивлены, наблюдая, как быстро происходит разрушение модели: модели могут быстро забыть большую часть исходных данных, из которых они изначально извлекли уроки". Таким образом, производительность ИИ ухудшается, это приводит к большему количеству ошибок в ответах и создаваемом контенте и к гораздо меньшему разнообразию безошибочных ответов.

Попадание чересчур большого количества сгенерированных текстов в обучающую выборку действительно может привести к формированию петли обратной связи, которая сузит диапазон знаний конкретной системы и заставит ее сжиматься до ограниченного набора результатов. Исследователи предупреждают, что для обеспечения достоверности данных прежде всего нужен доступ к реальным данным, созданным человеком. То есть ИИ не способен создавать новый достоверный контент, он представляет собой эдакий гибрид попугая и "испорченного телефона".

*

Еще одна статья появилась 18 июля и сразу привлекла к себе общее внимание. Исследователи из Стэнфордского университета и Калифорнийского университета в Беркли опубликовали совместную научную работу, в которой утверждается, что ответы модели GPT-4 меняются с течением времени. Эта работа подпитывает распространённое, но пока недоказанное мнение о том, что производительность популярной ИИ-модели естественного языка за последние несколько месяцев сильно ухудшилась во многих задачах.

В исследовании под названием "Как меняется поведение ChatGPT с течением времени?", опубликованном на arXiv, Линцзяо Чэнь, Матэй Захария и Джеймс Зоу выразили сомнение в постоянно высокой производительности крупных языковых моделей OpenAI, в частности GPT-3.5 и GPT-4.

Используя доступ через API, специалисты тестировали версии этих моделей за март и июнь 2023 года на таких заданиях, как решение математических задач, ответы на деликатные вопросы, генерация кода и визуальное мышление. В частности, способность GPT-4 определять простые числа, по данным исследователей, резко упала с точности 97,6% в марте до всего 2,4% уже в июне. Но вот что странно - модель GPT-3.5 в большинстве задач наоборот показала улучшенную производительность за тот же период [Вероятнее всего, потому что она значительно менее сложна и обучена на порядок меньшем количестве данных, то есть масштабирование здесь является огромной проблемой - ГВ].

Мотивация провести подобное исследование у учёных появилась вскоре после того, как люди начали массово жаловаться, что производительность GPT-4 якобы стала постепенно снижаться. Одна из популярных теорий о возможных причинах подразумевает искусственное ограничение производительности самой компанией OpenAI для снижения вычислительных затрат, повышенной скорости отклика и экономии ресурса графических процессоров. Ещё одна забавная теория заключается в том, что "тупым" GPT-4 сделали люди, которые просто часто задают ему глупые вопросы.

Между тем, OpenAI последовательно отрицает любые заявления о том, что возможности GPT-4 ухудшились. Только в прошлый четверг вице-президент OpenAI по продуктам Питер Велиндер написал: "Нет, мы не делали GPT-4 глупее. Скорее наоборот: мы делаем каждую новую версию умнее предыдущей".

Однако, повсеместные заявления о снижении производительности GPT-4 заставили OpenAI провести собственное расследование. "Команда знает о сообщаемом регрессе и изучает этот вопрос", - сообщил в эту среду Логан Килпатрик, глава отдела разработки OpenAI. То есть проблема все-таки есть и ее как-то придется решать во избежание неожиданного краха моделей.

Возможно, светлые умы на стороне смогли бы помочь разработчикам OpenAI выяснить причину регресса их системы, однако исходный код GPT-4 закрыт для сторонних разработчиков, за что компанию порицают при каждом удобном случае.

OpenAI не раскрывает источники обучающих материалов для GPT-4, исходный код или даже описание архитектуры модели. С закрытым "чёрным ящиком" вроде GPT-4 исследователи остаются "блуждать в темноте", пытаясь определить свойства системы, которая может иметь дополнительные неизвестные компоненты. Кроме того, модель может измениться в любое время без предупреждения.

*

Получается, что чем более похожим на нас мы стараемся сделать "искусственный интеллект", тем больше он приобретает и наших отрицательных качеств, от откровенной лжи и подтасовок до возможности галлюцинаций, умственной деградации и даже внезапного помешательства от перегрузок. Так что доверить ему что-то более серьезное, нежели помощь человеку в сборе и обработке данных, рисование картинок к статьям или создание дайджестов новостей для обывателей, вряд ли кто-то решится.

Естественно, необходимо иметь в виду, что речь идет не о нейросетях как таковых, использование которых имеет множество преимуществ перед традиционным программированием, а о том, что совершенно необоснованно и преждевременно назвали "искусственным интеллектом" (примерно так, как мы явно преждевременно назвали себя "человеком разумным")).

Главная проблема в том, что GPT и ей подобные не понимают смысла заглоченной ими информации (так сказать, потребляют, но не переваривают), а так же не имеют возможности отличать достоверную информацию от недостоверной и даже фейковой (прямо как многие люди), обходясь только статистическими обоснованиями (что чаще упоминается, то и верно). Это что угодно, только не интеллект, для которого главным все-таки является соответствие информации и знаний объективной реальности. Но лингвистические модели не имеют доступа к реальности, так что перспективы у них пока весьма туманны.

О том, что эта область достигла своего уровня насыщения и дальше может наблюдаться если не откат, то как минимум плато, свидетельствует еще один немаловажный факт. Глобально сфера ИИ - одна из самых щедро инвестируемых, однако в 2022 году показатель объема частных вложений в эту область сократился впервые за десятилетие. Так, в прошлом году инвестиции в ИИ в мире составили $91,9 млрд, это на 27% меньше, чем в 2021 году, когда показатель составлял рекордные $125,4 млрд, говорится в отчете Стэнфордского университета "Индекс искусственного интеллекта-2023". При этом прошлогодний показатель в полтора раза выше уровня 2020 года и в 18 раз - 2013 года.

Источники:

https://www.forbes.ru/tekhnologii/49...aet-li-generat ivnyj-iskusstvennyj-intellekt-vyrozdenie

https://www.securitylab.ru/news/540205.php


Авторство:
Авторская работа / переводика

Best regards, Boris

--- Ручка шариковая, цена 1.1.5-021027
Ответить с цитированием
Ответ


Ваши права в разделе
Вы не можете создавать новые темы
Вы не можете отвечать в темах
Вы не можете прикреплять вложения
Вы не можете редактировать свои сообщения

BB коды Вкл.
Смайлы Вкл.
[IMG] код Вкл.
HTML код Выкл.

Быстрый переход


Текущее время: 03:41. Часовой пояс GMT +4.


Powered by vBulletin® Version 3.8.7
Copyright ©2000 - 2024, vBulletin Solutions, Inc. Перевод: zCarot