Your AI powered learning assistant

Интро

00:00:00

Нейронные сети, такие как Chat GT, в последнее время попали в заголовки газет благодаря своим расширенным возможностям. Однако многие люди не знают о том, как они работают и что происходит внутри них. В результате эти технологии приводят к потере рабочих мест в различных отраслях промышленности.

T9: языковая модель в телефоне

00:00:31

Технология T9 в телефонах - это языковая модель, которая предсказывает следующее слово на основе существующего текста, и она эволюционировала, позволяя прогнозировать контекст и знаки препинания. Модель оперирует вероятностью следующего слова и предлагает пользователю наиболее вероятные варианты.

Откуда нейросети берут вероятности слов?

00:02:43

Нейронные сети используют математические модели для прогнозирования зависимостей между переменными, такими как вес и рост человека. Линейная регрессия - это простой пример математической модели, в то время как более сложные модели, такие как T9 или GPT-2, используют матрицы для прогнозирования следующего слова в предложении на основе предыдущих слов.

Почему языковые модели умеют в творчество

00:05:41

Языковые модели пытаются предсказать не только следующее конкретное слово, но и вероятность появления различных слов, которые могут следовать за текущим текстом. Этот творческий подход достигается с помощью уравнений и вероятностных вычислений, а модели могут генерировать разные ответы на один и тот же вопрос, подобно тому, как мыслят люди. Языковые модели впервые были использованы в функциях автокоррекции T9 в смартфонах в 2010-х годах.

2018: GPT-1 и архитектура Трансформера

00:08:16

Введение в GPT-1 и архитектуру трансформатора GPT-1 является членом семейства моделей GPT и представляет собой генеративную предварительно обученную архитектуру преобразования, используемую для генерации текста. Архитектура Transformer была изобретена Google в 2017 году и стала значительным прорывом в области искусственного интеллекта.

Преимущества трансформаторной архитектуры Архитектура Transformer - это универсальный вычислительный механизм, который может обрабатывать практически любые задачи, включая текст, изображения, звук и видео. Он обладает высокой масштабируемостью и состоит из простых модулей, которые можно легко комбинировать и масштабировать. Новые модели Transformer более эффективны и могут обрабатывать огромные объемы данных, что позволяет им лучше удерживать контекст и получать более впечатляющие результаты.

2019: GPT-2, или 7000 Шекспиров в нейросети

00:11:47

Языковые модели Языковые модели можно обучать на любом наборе текстовых данных, и чем больше набор данных, тем лучше будет работать модель. Трансформаторная технология, используемая в GPT-2, доказала свою эффективность при обработке больших объемов данных и работе со сложными моделями.

Учебный GPT-2 Чтобы обучить GPT-2, исследователям понадобился большой набор данных и сложная модель. Они скачали с Reddit 8 миллионов гиперссылок, что составило примерно 40 гигабайт текстовых данных. Это в 7300 раз больше, чем все произведения Уильяма Шекспира, и модель должна была быть достаточно сложной, чтобы обработать все эти данные. Сложность модели измеряется количеством параметров, которые она имеет, и модель должна быть достаточно сложной, чтобы обрабатывать объем данных, на которых она обучается.

Как измеряется сложность и размер моделей

00:15:25

Измерение сложности и размера моделей Сложность и размер языковых моделей измеряются количеством имеющихся у них параметров, которые могут варьироваться от тысяч до миллиардов. Эти параметры представляют собой коэффициенты или веса, которые оцениваются один раз и сохраняются в специальном файле, в то время как входные слова вводятся в модель для прогнозирования следующего слова.

Возможности GPT-2 после увеличения количества параметров После увеличения количества параметров со 115 миллионов до 350 миллионов способность GPT-2 решать проблемы с неоднозначным текстом увеличилась с 50% до 95%. Когда количество параметров было увеличено до 700 миллионов, способность модели решать задачи значительно улучшилась, и она смогла решать проблемы, связанные с голодной рыбой.

Нелинейная зависимость между количеством параметров и возможностями модели Увеличение количества параметров в модели не всегда приводит к линейному увеличению ее возможностей. Вместо этого существует нелинейная зависимость между количеством параметров и возможностями модели. Способность GPT-2 решать задачи значительно улучшилась, когда количество параметров было увеличено с 350 миллионов до 700 миллионов.

2020: GPT-3, или Невероятный Халк

00:22:07

GPT-3 GPT-3 - это языковая модель, разработанная OpenAI, со 175 миллиардами параметров, что делает ее в 116 раз больше, чем ее предшественницу GPT-

Он был обучен на базе данных объемом 700 ГБ, включая книги, Википедию и веб-сайты, и способен экстраполировать информацию для решения задач на основе текста.

Невероятные способности GPT-3 продемонстрировал невероятные способности, в том числе превзошел специализированные модели в таких задачах, как перевод и даже само обучение математике. По мере увеличения количества параметров в модели развиваются новые специализированные способности, которые не были намеренно запрограммированы, что приводит к спорам о том, является ли это настоящей магией или просто запоминанием примеров. Тем не менее, его возможности неоспоримы: точность прогнозирования погодных условий для рыбалки составляет 90%.

Промпты, или как правильно уламывать модель

00:26:13

Запрос - это процесс отправки текстовых запросов модели, и качество ответа в значительной степени зависит от формулировки запроса. Правильно сформулированные подсказки могут помочь моделям шаг за шагом решать проблемы, а общение с моделями становится все более важным навыком во многих профессиях, включая инженерное дело. GPT-3, например, имеет в 100 раз больше параметров и в 10 раз больше обучающих данных, чем его предшественник, и рост количества параметров привел к внезапному повышению качества обучения модели, включая перевод на другие языки, арифметику, базовое программирование и пошаговое- пошаговое рассуждение.

Январь 2022: InstructGPT, или воспитание строптивой

00:28:06

InstructGPT и языковые модели Увеличение размера языковых моделей, таких как InstructGPT, не обязательно означает, что они всегда будут отвечать на запросы пользователей по желанию, поскольку люди часто имеют множество скрытых разъяснений в своих запросах, которые необходимо явно объяснить модели.

Этические проблемы, связанные с искусственным интеллектом Существует множество этических дилемм и ситуаций, связанных с разработкой и использованием искусственного интеллекта, и найти баланс между ценностями и правильными ответами - непростая задача. Даже с учетом "трех законов робототехники" Айзека Азимова все еще остается много этических вопросов, на которые нелегко ответить.

GPT-35 и важность обратной связи GPT-35, также известный как InstaGPT, был обучен на основе отзывов от живых судей-людей, чтобы максимально увеличить свой балл. Эта обратная связь была секретным ингредиентом, который сделал GPT-35 таким успешным, поскольку он научился адаптировать свои ответы так, чтобы они нравились большинству людей. Несмотря на то, что GPT-35 не является самой крупной или умной языковой моделью, способность адаптироваться к обратной связи сделала ее новаторской моделью.

Ноябрь 2022: ChatGPT – хайпуют все!

00:33:51

Релиз ChatGPT В ноябре 2022 года был выпущен ChatGPT, который быстро стал популярным благодаря своему удобному интерфейсу и общедоступности. Он был обучен на основе дополнительных данных и имел незначительные технические улучшения по сравнению со своим предшественником, GPT-3.

Успех ChatGPT Успех ChatGPT можно объяснить его удобным и знакомым интерфейсом чата, который позволил обычным людям легко взаимодействовать с языковой моделью. Он быстро набрал популярность, охватив 1 миллион пользователей всего за пять дней и 100 миллионов пользователей за два месяца. Microsoft инвестировала 10 миллиардов долларов в исследования искусственного интеллекта, в то время как Google и Китай также объявили о планах разработки собственных языковых моделей.

Подводим итоги

00:38:05

Эпизод завершается обещанием обсудить важные вопросы, связанные с музыкой и искусственным интеллектом, в следующих эпизодах. Ведущий также благодарит своего коллегу Игоря Котенкова за помощь в подготовке материала и предоставляет ссылки на свой Telegram-канал для тех, кто заинтересован в дальнейших обсуждениях.