Глоссарий машинного обучения: оценка языка

На этой странице содержатся термины глоссария языковой оценки. Чтобы просмотреть все термины глоссария, нажмите здесь .

А

внимание

#язык

Механизм, используемый в нейронной сети , который указывает важность определенного слова или части слова. Внимание сжимает объем информации, необходимой модели для прогнозирования следующего токена/слова. Типичный механизм внимания может состоять из взвешенной суммы по набору входных данных, где вес каждого входного сигнала вычисляется другой частью нейронной сети.

Обратитесь также к самовниманию и многоголовому самовниманию , которые являются строительными блоками Трансформеров .

автоэнкодер

#язык
#изображение

Система, которая учится извлекать наиболее важную информацию из входных данных. Автоэнкодеры представляют собой комбинацию кодера и декодера . Автоэнкодеры полагаются на следующий двухэтапный процесс:

  1. Кодер преобразует входные данные в (обычно) низкоразмерный (промежуточный) формат с потерями.
  2. Декодер создает версию исходного ввода с потерями, сопоставляя формат меньшей размерности с исходным входным форматом более высокой размерности.

Автокодировщики обучаются сквозно, заставляя декодер пытаться как можно точнее восстановить исходный входной сигнал из промежуточного формата кодера. Поскольку промежуточный формат меньше (меньшая размерность), чем исходный формат, автокодировщику приходится узнавать, какая информация на входе важна, и выходные данные не будут полностью идентичны входным.

Например:

  • Если входные данные представляют собой графику, неточная копия будет похожа на исходную графику, но несколько изменена. Возможно, неточная копия удаляет шум из исходной графики или заполняет некоторые недостающие пиксели.
  • Если входные данные представляют собой текст, автокодировщик сгенерирует новый текст, который имитирует (но не идентичен) исходному тексту.

См. также вариационные автоэнкодеры .

авторегрессионная модель

#язык
#изображение
#генеративныйИИ

Модель , которая делает прогноз на основе собственных предыдущих прогнозов. Например, авторегрессионные языковые модели прогнозируют следующий токен на основе ранее предсказанных токенов. Все модели большого языка на основе Transformer являются авторегрессионными.

Напротив, модели изображений на основе GAN обычно не являются авторегрессионными, поскольку они генерируют изображение за один проход вперед, а не поэтапно итеративно. Однако некоторые модели генерации изображений являются авторегрессионными, поскольку они генерируют изображение поэтапно.

Б

мешок слов

#язык

Представление слов во фразе или отрывке независимо от порядка. Например, мешок слов одинаково представляет следующие три фразы:

  • собака прыгает
  • прыгает на собаку
  • собака прыгает

Каждое слово сопоставляется с индексом в разреженном векторе , где вектор имеет индекс для каждого слова в словаре. Например, фраза «собака прыгает» отображается в вектор признаков с ненулевыми значениями по трем индексам, соответствующим словам « собака » и «прыжки» . Ненулевое значение может быть любым из следующих:

  • 1 указывает на наличие слова.
  • Подсчет количества раз, когда слово появляется в сумке. Например, если фраза «бордовая собака» — это собака с бордовой шерстью , то и «бордовый» , и «собака» будут представлены как 2, а другие слова будут представлены как 1.
  • Некоторое другое значение, например логарифм количества раз, которое слово появляется в сумке.

BERT (представления двунаправленного кодировщика от трансформаторов)

#язык

Архитектура модели для представления текста. Обученная модель BERT может действовать как часть более крупной модели для классификации текста или других задач машинного обучения.

BERT имеет следующие характеристики:

Варианты BERT включают:

Обзор BERT см . в разделе «Открытый исходный код BERT: современное предварительное обучение обработке естественного языка» .

двунаправленный

#язык

Термин, используемый для описания системы, которая оценивает текст, который предшествует и следует за целевым разделом текста. Напротив, однонаправленная система оценивает только текст, который предшествует целевому разделу текста.

Например, рассмотрим модель языка в масках , которая должна определять вероятности для слова или слов, представляющих подчеркивание в следующем вопросе:

Что с тобой _____?

Однонаправленная языковая модель должна была бы основывать свои вероятности только на контексте, обеспечиваемом словами «Что», «есть» и «the». Напротив, двунаправленная языковая модель также может получить контекст от слов «с» и «вы», что может помочь модели генерировать более качественные прогнозы.

двунаправленная языковая модель

#язык

Языковая модель , определяющая вероятность присутствия данного токена в заданном месте во фрагменте текста на основе предыдущего и последующего текста.

биграмма

#seq
#язык

N-грамма , в которой N=2.

BLEU (дублёр двуязычной оценки)

#язык

Оценка от 0,0 до 1,0 включительно, указывающая на качество перевода между двумя человеческими языками (например, между английским и русским). Оценка BLEU 1,0 указывает на идеальный перевод; оценка BLEU 0,0 указывает на ужасный перевод.

С

причинно-языковая модель

#язык

Синоним однонаправленной языковой модели .

См. двунаправленную языковую модель, чтобы сравнить различные направленные подходы к языковому моделированию.

подсказка по цепочке мыслей

#язык
#генеративныйИИ

Метод быстрого проектирования , который побуждает большую языковую модель (LLM) шаг за шагом объяснять свои рассуждения. Например, рассмотрите следующую подсказку, уделив особое внимание второму предложению:

Какую силу перегрузки испытает водитель автомобиля, разгоняющегося от 0 до 60 миль в час за 7 секунд? В ответе покажите все соответствующие расчеты.

Ответ LLM, скорее всего, будет следующим:

  • Покажите последовательность физических формул, вставляя значения 0, 60 и 7 в соответствующие места.
  • Объясните, почему он выбрал именно эти формулы и что означают различные переменные.

Подсказки по цепочке мыслей заставляют LLM выполнять все вычисления, которые могут привести к более правильному ответу. Кроме того, подсказки по цепочке мыслей позволяют пользователю изучить шаги LLM, чтобы определить, имеет ли ответ смысл.

чат

#язык
#генеративныйИИ

Содержимое двустороннего диалога с системой машинного обучения, обычно это большая языковая модель . Предыдущее взаимодействие в чате (то, что вы набрали и как отреагировала большая языковая модель) становится контекстом для последующих частей чата.

Чат-бот — это приложение большой языковой модели.

болтовня

#язык

Синоним галлюцинации .

Конфабуляция, вероятно, более технически точный термин, чем галлюцинация. Однако первой популярностью стали пользоваться галлюцинации.

разбор избирательного округа

#язык

Деление предложения на более мелкие грамматические конструкции («составные»). Более поздняя часть системы машинного обучения, такая как модель понимания естественного языка , может анализировать составляющие легче, чем исходное предложение. Например, рассмотрим следующее предложение:

Мой друг взял двух кошек.

Анализатор избирательного округа может разделить это предложение на следующие две составляющие:

  • Мой друг — существительное.
  • усыновил двух кошек — это глагольная фраза.

Эти составляющие можно разделить на более мелкие составляющие. Например, глагольная группа

взял двух кошек

можно дополнительно разделить на:

  • принято – это глагол.
  • две кошки — еще одна существительная группа.

контекстуализированное языковое встраивание

#язык
#генеративныйИИ

Встраивание , близкое к «пониманию» слов и фраз так, как это могут делать носители языка. Контекстуализированные языковые внедрения могут понимать сложный синтаксис, семантику и контекст.

Например, рассмотрим встраивание английского слова «cow» . Старые вложения, такие как word2vec, могут представлять английские слова таким образом, что расстояние в пространстве встраивания от коровы до быка аналогично расстоянию от овцы (овцы-самки) до барана (овцы-самцы) или от самки до самца . Контекстуализированные языковые встраивания могут пойти еще дальше, признав, что носители английского языка иногда случайно используют слово «корова» для обозначения либо коровы, либо быка.

контекстное окно

#язык
#генеративныйИИ

Количество токенов, которые модель может обработать в заданном приглашении . Чем больше контекстное окно, тем больше информации модель может использовать для предоставления последовательных и последовательных ответов на запрос.

крах цветения

#язык

Предложение или фраза с неоднозначным смыслом. Цветение сбоев представляет собой серьезную проблему в понимании естественного языка . Например, заголовок «Красная лента держит небоскреб» — это настоящий крах, потому что модель NLU может интерпретировать заголовок буквально или фигурально.

Д

декодер

#язык

В общем, любая система машинного обучения, которая преобразуется из обработанного, плотного или внутреннего представления в более необработанное, разреженное или внешнее представление.

Декодеры часто являются компонентами более крупных моделей, где они часто работают в паре с кодером .

В задачах последовательного преобразования декодер начинает с внутреннего состояния, сгенерированного кодером, для прогнозирования следующей последовательности.

Обратитесь к Transformer для определения декодера в архитектуре Transformer.

шумоподавление

#язык

Общий подход к самостоятельному обучению, при котором:

  1. В набор данных искусственно добавляется шум .
  2. Модель пытается убрать шум.

Шумоподавление позволяет учиться на немаркированных примерах . Исходный набор данных служит целью или меткой , а зашумленные данные — входными данными.

Некоторые модели языка в масках используют шумоподавление следующим образом:

  1. К немаркированному предложению искусственно добавляется шум путем маскировки некоторых токенов.
  2. Модель пытается предсказать исходные токены.

прямое побуждение

#язык
#генеративныйИИ

Синоним подсказки с нулевым выстрелом .

Э

изменить расстояние

#язык

Измерение того, насколько похожи две текстовые строки друг на друга. В машинном обучении расстояние редактирования полезно, поскольку его легко вычислить, а также это эффективный способ сравнить две заведомо похожие строки или найти строки, похожие на заданную строку.

Существует несколько определений расстояния редактирования, каждое из которых использует разные строковые операции. Например, расстояние Левенштейна учитывает наименьшее количество операций удаления, вставки и замены.

Например, расстояние Левенштейна между словами «сердце» и «дротики» равно 3, потому что следующие 3 редактирования — это наименьшее количество изменений, позволяющих превратить одно слово в другое:

  1. сердце → дорогая (замените «h» на «d»)
  2. дорогой → дротик (удалить «е»)
  3. дротик → дартс (вставить «s»)

слой внедрения

#язык
#основы

Специальный скрытый слой , который обучается на многомерном категориальном признаке для постепенного изучения вектора внедрения более низкого измерения. Уровень внедрения позволяет нейронной сети обучаться гораздо эффективнее, чем обучение только на многомерном категориальном признаке.

Например, на Земле в настоящее время произрастает около 73 000 видов деревьев. Предположим, что виды деревьев являются признаком вашей модели, поэтому входной слой вашей модели включает в себя вектор длиной 73 000 элементов. Например, возможно, baobab можно было бы представить примерно так:

Массив из 73 000 элементов. Первые 6232 элемента содержат значение 0. Следующий элемент содержит значение 1. Последние 66767 элементов содержат нулевое значение.

Массив из 73 000 элементов очень длинный. Если вы не добавите в модель слой внедрения, обучение займет очень много времени из-за умножения 72 999 нулей. Возможно, вы выберете слой внедрения, состоящий из 12 измерений. Следовательно, слой внедрения постепенно изучает новый вектор внедрения для каждой породы деревьев.

В определенных ситуациях хеширование является разумной альтернативой слою внедрения.

пространство для встраивания

#язык

Сопоставляется d-мерное векторное пространство, являющееся частью векторного пространства более высокой размерности. В идеале пространство встраивания содержит структуру, которая дает значимые математические результаты; например, в идеальном пространстве вложений сложение и вычитание вложений могут решить задачи по аналогии слов.

Скалярное произведение двух вложений является мерой их сходства.

вектор внедрения

#язык

Грубо говоря, массив чисел с плавающей запятой, взятый из любого скрытого слоя и описывающий входные данные этого скрытого слоя. Часто вектор внедрения представляет собой массив чисел с плавающей запятой, обученный на слое внедрения. Например, предположим, что слой внедрения должен изучить вектор внедрения для каждого из 73 000 видов деревьев на Земле. Возможно, следующий массив является вектором внедрения дерева баобаба:

Массив из 12 элементов, каждый из которых содержит число с плавающей запятой от 0,0 до 1,0.

Вектор внедрения — это не набор случайных чисел. Слой внедрения определяет эти значения посредством обучения, аналогично тому, как нейронная сеть изучает другие веса во время обучения. Каждый элемент массива представляет собой рейтинг по некоторой характеристике породы дерева. Какой элемент представляет характеристику какой породы деревьев? Людям это очень трудно определить.

Математически примечательная часть вектора внедрения заключается в том, что аналогичные элементы имеют одинаковые наборы чисел с плавающей запятой. Например, похожие породы деревьев имеют более похожий набор чисел с плавающей запятой, чем разные породы деревьев. Секвойи и секвойи являются родственными породами деревьев, поэтому у них будет более похожий набор чисел с плавающей запятой, чем у секвой и кокосовых пальм. Числа в векторе внедрения будут меняться каждый раз, когда вы переобучаете модель, даже если вы переобучаете модель с идентичными входными данными.

кодер

#язык

В общем, любая система машинного обучения, которая преобразует необработанное, разреженное или внешнее представление в более обработанное, более плотное или более внутреннее представление.

Кодеры часто являются компонентом более крупной модели, где они часто работают в паре с декодером . Некоторые Трансформеры объединяют кодеры с декодерами, хотя другие Трансформеры используют только кодер или только декодер.

Некоторые системы используют выходные данные кодировщика в качестве входных данных для сети классификации или регрессии.

В задачах «последовательность-последовательность» кодер принимает входную последовательность и возвращает внутреннее состояние (вектор). Затем декодер использует это внутреннее состояние для прогнозирования следующей последовательности.

Обратитесь к Transformer для определения кодера в архитектуре Transformer.

Ф

подсказка из нескольких кадров

#язык
#генеративныйИИ

Приглашение , содержащее более одного («несколько») примеров, демонстрирующих, как должна реагировать большая языковая модель . Например, следующая длинная подсказка содержит два примера, показывающие большую языковую модель, как отвечать на запрос.

Части одной подсказки Примечания
Какая официальная валюта указанной страны? Вопрос, на который вы хотите получить ответ от LLM.
Франция: евро Один пример.
Великобритания: фунт стерлингов. Другой пример.
Индия: Фактический запрос.

Подсказки с небольшим количеством шагов обычно дают более желательные результаты, чем подсказки с нулевым шагом и одноразовые подсказки . Однако подсказка с несколькими выстрелами требует более длинной подсказки.

Подсказки в несколько этапов — это форма обучения в несколько этапов, применяемая к обучению на основе подсказок .

скрипка

#язык

Библиотека конфигурации , ориентированная на Python, которая устанавливает значения функций и классов без инвазивного кода или инфраструктуры. В случае Pax и других баз кода ML эти функции и классы представляют модели и гиперпараметры обучения .

Фиддл предполагает, что базы кода машинного обучения обычно делятся на:

  • Код библиотеки, определяющий слои и оптимизаторы.
  • «Склеивающий» код набора данных, который вызывает библиотеки и связывает все воедино.

Fiddle фиксирует структуру вызовов связующего кода в неоцененной и изменяемой форме.

тонкая настройка

#язык
#изображение
#генеративныйИИ

Второй проход обучения для конкретной задачи, выполняемый на предварительно обученной модели для уточнения ее параметров для конкретного варианта использования. Например, полная последовательность обучения для некоторых больших языковых моделей выглядит следующим образом:

  1. Предварительное обучение: обучите большую языковую модель на обширном общем наборе данных, например на всех англоязычных страницах Википедии.
  2. Точная настройка: обучение предварительно обученной модели выполнению конкретной задачи, например ответа на медицинские запросы. Точная настройка обычно включает сотни или тысячи примеров, ориентированных на конкретную задачу.

В качестве другого примера полная последовательность обучения для модели большого изображения выглядит следующим образом:

  1. Предварительное обучение: обучите большую модель изображения на обширном общем наборе данных изображений, например на всех изображениях в Wikimedia Commons.
  2. Точная настройка: обучение предварительно обученной модели выполнению конкретной задачи, например генерации изображений косаток.

Точная настройка может включать любую комбинацию следующих стратегий:

  • Изменение всех существующих параметров предварительно обученной модели. Иногда это называют полной тонкой настройкой .
  • Изменение только некоторых существующих параметров предварительно обученной модели (обычно слоев, ближайших к выходному слою ), сохраняя при этом другие существующие параметры неизменными (обычно слои, ближайшие к входному слою ). См. настройку с эффективным использованием параметров .
  • Добавление дополнительных слоев, обычно поверх существующих слоев, ближайших к выходному слою.

Точная настройка — это форма трансферного обучения . Таким образом, при точной настройке может использоваться другая функция потерь или другой тип модели, чем те, которые используются для обучения предварительно обученной модели. Например, вы можете точно настроить предварительно обученную модель большого изображения для создания регрессионной модели, которая возвращает количество птиц во входном изображении.

Сравните и сопоставьте тонкую настройку со следующими терминами:

Лен

#язык

Высокопроизводительная библиотека с открытым исходным кодом для глубокого обучения, построенная на основе JAX . Flax предоставляет функции для обучения нейронных сетей , а также методы оценки их производительности.

льноформер

#язык

Библиотека Transformer с открытым исходным кодом, построенная на Flax и предназначенная в первую очередь для обработки естественного языка и мультимодальных исследований.

г

генеративный ИИ

#язык
#изображение
#генеративныйИИ

Возникающее преобразующее поле без формального определения. Тем не менее, большинство экспертов сходятся во мнении, что генеративные модели ИИ могут создавать («генерировать») контент, который имеет все следующие характеристики:

  • сложный
  • последовательный
  • оригинальный

Например, генеративная модель ИИ может создавать сложные эссе или изображения.

Некоторые более ранние технологии, включая LSTM и RNN , также могут генерировать оригинальный и связный контент. Некоторые эксперты рассматривают эти более ранние технологии как генеративный ИИ, в то время как другие считают, что настоящий генеративный ИИ требует более сложных результатов, чем те, которые могут произвести более ранние технологии.

Сравните с прогнозным ML .

GPT (Генераторный предварительно обученный трансформатор)

#язык

Семейство больших языковых моделей на основе Transformer , разработанное OpenAI .

Варианты GPT могут применяться к нескольким модальностям , в том числе:

  • генерация изображений (например, ImageGPT)
  • генерация текста в изображение (например, DALL-E ).

ЧАС

галлюцинация

#язык

Производство кажущихся правдоподобными, но на самом деле неверных результатов с помощью генеративной модели ИИ , которая якобы делает утверждение о реальном мире. Например, генеративная модель искусственного интеллекта, утверждающая, что Барак Обама умер в 1865 году, является галлюцинацией .

я

обучение в контексте

#язык
#генеративныйИИ

Синоним « подсказки с несколькими выстрелами» .

л

LaMDA (Языковая модель для диалоговых приложений)

#язык

Большая языковая модель на основе Transformer , разработанная Google, обученная на большом наборе диалоговых данных, которая может генерировать реалистичные разговорные ответы.

LaMDA: наша революционная технология общения дает обзор.

языковая модель

#язык

Модель , которая оценивает вероятность появления токена или последовательности токенов в более длинной последовательности токенов.

большая языковая модель

#язык

Неофициальный термин без строгого определения, который обычно означает языковую модель с большим количеством параметров . Некоторые крупные языковые модели содержат более 100 миллиардов параметров.

скрытое пространство

#язык

Синоним встраивания пространства .

Магистр права

#язык

Аббревиатура для большой языковой модели .

ЛоРА

#язык
#генеративныйИИ

Аббревиатура для адаптивности низкого ранга .

Адаптивность низкого ранга (LoRA)

#язык
#генеративныйИИ

Алгоритм эффективной настройки параметров , который позволяет точно настроить только подмножество параметров большой языковой модели . LoRA предоставляет следующие преимущества:

  • Точная настройка выполняется быстрее, чем методы, требующие точной настройки всех параметров модели.
  • Уменьшает вычислительные затраты на вывод в точно настроенной модели.

Модель, настроенная с помощью LoRA, сохраняет или улучшает качество своих прогнозов.

LoRA позволяет использовать несколько специализированных версий модели.

М

модель языка в масках

#язык

Языковая модель , которая прогнозирует вероятность того, что токены-кандидаты заполнят пробелы в последовательности. Например, языковая модель в масках может вычислить вероятность того, что слова-кандидаты заменят подчеркивание в следующем предложении:

____ в шляпе вернулся.

В литературе обычно вместо подчеркивания используется строка «МАСКА». Например:

"МАСКА" в шапке вернулась.

Большинство современных моделей замаскированного языка являются двунаправленными .

метаобучение

#язык

Подмножество машинного обучения, которое обнаруживает или улучшает алгоритм обучения. Система метаобучения также может быть нацелена на обучение модели быстрому изучению новой задачи на основе небольшого объема данных или опыта, полученного при выполнении предыдущих задач. Алгоритмы метаобучения обычно пытаются достичь следующего:

  • Улучшите или изучите функции, разработанные вручную (например, инициализатор или оптимизатор).
  • Будьте более эффективными в использовании данных и вычислений.
  • Улучшить обобщение.

Метаобучение связано с обучением в несколько этапов .

модальность

#язык

Категория данных высокого уровня. Например, числа, текст, изображения, видео и аудио — это пять разных модальностей.

модельный параллелизм

#язык

Способ масштабирования обучения или вывода, при котором разные части одной модели размещаются на разных устройствах . Параллелизм моделей позволяет создавать модели, которые слишком велики для размещения на одном устройстве.

Чтобы реализовать параллелизм моделей, система обычно делает следующее:

  1. Шардирует (делит) модель на более мелкие части.
  2. Распределяет обучение этих более мелких частей по нескольким процессорам. Каждый процессор обучает свою часть модели.
  3. Объединяет результаты для создания единой модели.

Параллелизм моделей замедляет обучение.

См. также параллелизм данных .

многоголовый самообслуживание

#язык

Расширение внутреннего внимания , которое применяет механизм внутреннего внимания несколько раз для каждой позиции во входной последовательности.

Трансформеры представили многоголовое самообслуживание.

мультимодальная модель

#язык

Модель, входные и/или выходные данные которой включают более одной модальности . Например, рассмотрим модель, которая принимает как изображение, так и текстовую подпись (две модальности) в качестве функций и выводит оценку, показывающую, насколько текстовая подпись соответствует изображению. Итак, входные данные этой модели являются мультимодальными, а выходные — унимодальными.

Н

понимание естественного языка

#язык

Определение намерений пользователя на основе того, что он напечатал или сказал. Например, поисковая система использует понимание естественного языка, чтобы определить, что ищет пользователь, на основе того, что он набрал или сказал.

N-грамм

#seq
#язык

Упорядоченная последовательность из N слов. Например, по-настоящему безумно – это 2-грамма. Поскольку порядок важен, «безумно по-настоящему» — это разные 2 грамма, чем «по-настоящему безумно» .

Н Имена для этого типа N-граммы Примеры
2 биграмм или 2-грамма пойти, пойти, пообедать, поужинать
3 триграмма или 3-грамма слишком много съел, три слепые мыши, звонит колокол
4 4-граммовый прогулка в парке, пыль на ветру, мальчик съел чечевицу

Многие модели понимания естественного языка полагаются на N-граммы, чтобы предсказать следующее слово, которое пользователь напечатает или скажет. Например, предположим, что пользователь набрал три слепых . Модель NLU, основанная на триграммах, скорее всего, предскажет, что следующим пользователем будут мыши .

Сравните N-граммы с мешком слов , которые представляют собой неупорядоченные наборы слов.

НЛУ

#язык

Аббревиатура для понимания естественного языка .

О

одноразовая подсказка

#язык
#генеративныйИИ

Приглашение , содержащее один пример, демонстрирующий, как должна реагировать большая языковая модель . Например, следующая подсказка содержит один пример, показывающий, как большая языковая модель должна отвечать на запрос.

Части одной подсказки Примечания
Какая официальная валюта указанной страны? Вопрос, на который вы хотите получить ответ от LLM.
Франция: евро Один пример.
Индия: Фактический запрос.

Сравните и сопоставьте одноразовые подсказки со следующими терминами:

п

настройка с эффективным использованием параметров

#язык
#генеративныйИИ

Набор методов для более эффективной тонкой настройки большой предварительно обученной языковой модели (PLM), чем полная точная настройка . При настройке с эффективным использованием параметров обычно выполняется гораздо меньше параметров, чем при полной точной настройке, но, как правило, создается большая языковая модель , которая работает так же хорошо (или почти так же хорошо), как и большая языковая модель, построенная на основе полной тонкой настройки.

Сравните и сопоставьте эффективную настройку параметров с:

Настройка с эффективным использованием параметров также известна как точная настройка с эффективным использованием параметров .

трубопровод

#язык

Форма параллелизма моделей , при которой обработка модели разделена на последовательные этапы, и каждый этап выполняется на отдельном устройстве. Пока этап обрабатывает один пакет, предыдущий этап может работать над следующим пакетом.

См. также поэтапное обучение .

ПЛМ

#язык
#генеративныйИИ

Аббревиатура предварительно обученной языковой модели .

позиционное кодирование

#язык

Метод добавления информации о положении токена в последовательности во встраивание токена. Модели-трансформеры используют позиционное кодирование, чтобы лучше понять взаимосвязь между различными частями последовательности.

Общая реализация позиционного кодирования использует синусоидальную функцию. (В частности, частота и амплитуда синусоидальной функции определяются положением маркера в последовательности.) Этот метод позволяет модели Трансформатора научиться обращать внимание на различные части последовательности в зависимости от их положения.

предварительно обученная модель

#язык
#изображение
#генеративныйИИ

Модели или компоненты модели (например, вектор внедрения ), которые уже прошли обучение. Иногда вы вводите в нейронную сеть предварительно обученные векторы внедрения. В других случаях ваша модель будет обучать сами векторы внедрения, а не полагаться на предварительно обученные вектора внедрения.

Термин «предварительно обученная языковая модель» относится к большой языковой модели , прошедшей предварительное обучение .

предварительная подготовка

#язык
#изображение
#генеративныйИИ

Начальное обучение модели на большом наборе данных. Некоторые предварительно обученные модели являются неуклюжими гигантами и обычно требуют доработки посредством дополнительного обучения. Например, эксперты по машинному обучению могут предварительно обучить большую языковую модель на обширном наборе текстовых данных, например на всех английских страницах в Википедии. После предварительного обучения полученная модель может быть дополнительно уточнена с помощью любого из следующих методов:

быстрый

#язык
#генеративныйИИ

Любой текст, введенный в качестве входных данных в большую языковую модель , чтобы заставить модель вести себя определенным образом. Подсказки могут быть короткими, как фраза, или произвольной длины (например, весь текст романа). Подсказки делятся на несколько категорий, включая те, которые показаны в следующей таблице:

Категория подсказки Пример Примечания
Вопрос Как быстро может летать голубь?
Инструкция Напишите забавное стихотворение об арбитраже. Подсказка, которая просит большую языковую модель что-то сделать .
Пример Переведите код Markdown в HTML. Например:
Уценка: * элемент списка
HTML: <ul> <li>элемент списка</li> </ul>
Первое предложение в этом примере приглашения представляет собой инструкцию. Оставшаяся часть приглашения является примером.
Роль Объясните, почему градиентный спуск используется при обучении машинному обучению для доктора философии по физике. Первая часть предложения представляет собой инструкцию; фраза «до степени доктора физики» является ролевой частью.
Частичный ввод для завершения модели Премьер-министр Соединенного Королевства живет в Подсказка частичного ввода может либо внезапно закончиться (как в этом примере), либо закончиться подчеркиванием.

Генеративная модель ИИ может отвечать на запрос текстом, кодом, изображениями, встраиваниями , видео… почти чем угодно.

быстрое обучение

#язык
#генеративныйИИ

Способность определенных моделей , позволяющая им адаптировать свое поведение в ответ на произвольный ввод текста ( подсказки ). В типичной парадигме обучения на основе подсказок большая языковая модель реагирует на подсказку, генерируя текст. Например, предположим, что пользователь вводит следующую подсказку:

Кратко изложите третий закон движения Ньютона.

Модель, способная к обучению на основе подсказок, специально не обучена отвечать на предыдущую подсказку. Скорее, модель «знает» много фактов о физике, много об общих правилах языка и многое о том, что представляет собой вообще полезные ответы. Этих знаний достаточно, чтобы дать (надеюсь) полезный ответ. Дополнительная обратная связь от человека («Этот ответ был слишком сложным» или «Какая реакция?») позволяет некоторым системам обучения на основе подсказок постепенно повышать полезность своих ответов.

быстрый дизайн

#язык
#генеративныйИИ

Синоним оперативного проектирования .

оперативное проектирование

#язык
#генеративныйИИ

Искусство создания подсказок , вызывающих желаемые ответы из большой языковой модели . Люди выполняют быстрые инженерные работы. Написание хорошо структурированных подсказок является важной частью обеспечения полезных ответов от большой языковой модели. Оперативное проектирование зависит от многих факторов, в том числе:

Дополнительные сведения о написании полезных подсказок см. в разделе «Введение в дизайн подсказок» .

Оперативное проектирование – это синоним оперативного проектирования.

оперативная настройка

#язык
#генеративныйИИ

Эффективный механизм настройки параметров , который запоминает «префикс», который система добавляет к фактическому приглашению .

Один из вариантов быстрой настройки, иногда называемый настройкой префикса , заключается в добавлении префикса на каждом уровне . Напротив, в большинстве случаев быстрая настройка добавляет только префикс к входному слою .

р

подсказка роли

#язык
#генеративныйИИ

Необязательная часть запроса , определяющая целевую аудиторию для ответа генеративной модели ИИ . Без ролевой подсказки большая языковая модель дает ответ, который может оказаться полезным, а может и не оказаться полезным для человека, задающего вопросы. Благодаря подсказке о роли большая языковая модель может ответить более подходящим и более полезным для конкретной целевой аудитории способом. Например, часть подсказки о роли в следующих подсказках выделена жирным шрифтом:

  • Кратко изложите эту статью для доктора экономических наук .
  • Опишите, как приливы действуют на десятилетнего ребенка .
  • Объясните финансовый кризис 2008 года. Разговаривайте так, как если бы вы разговаривали с маленьким ребенком или золотистым ретривером.

С

самовнимание (также называемое слоем самовнимания)

#язык

Уровень нейронной сети, который преобразует последовательность вложений (например, встраивания токенов ) в другую последовательность вложений. Каждое вложение в выходную последовательность создается путем интеграции информации из элементов входной последовательности с помощью механизма внимания .

Часть внимания к себе относится к последовательности, обращенной к себе, а не к какому-то другому контексту. Самообслуживание является одним из основных строительных блоков Transformers и использует терминологию поиска по словарю, такую ​​как «запрос», «ключ» и «значение».

Уровень самообслуживания начинается с последовательности входных представлений, по одному на каждое слово. Входное представление слова может быть простым вложением. Для каждого слова во входной последовательности сеть оценивает релевантность слова каждому элементу всей последовательности слов. Оценки релевантности определяют, насколько окончательное представление слова включает в себя представления других слов.

Например, рассмотрим следующее предложение:

Животное не перешло улицу, потому что слишком устало.

На следующей иллюстрации (из книги «Трансформер: новая архитектура нейронной сети для понимания языка» ) показан шаблон внимания уровня самообслуживания для местоимения «it» , при этом темнота каждой линии указывает, насколько каждое слово способствует представлению:

Следующее предложение встречается дважды: Животное не перешло улицу, потому что слишком устало. Линии соединяют местоимение it в одном предложении с пятью лексемами (животное, улица, оно и точка) в другом предложении. Граница между местоимением it и словом животное самая сильная.

Уровень самовнимания выделяет слова, которые имеют отношение к «этому». В этом случае уровень внимания научился выделять слова, к которым он может относиться, присваивая наивысший вес животному .

Для последовательности из n токенов самообладание преобразует последовательность вложений n отдельных раз, по одному разу в каждой позиции последовательности.

Обратите внимание также на внимание и многоглавое самовнимание .

анализ настроений

#язык

Использование статистических алгоритмов или алгоритмов машинного обучения для определения общего отношения группы — положительного или отрицательного — к услуге, продукту, организации или теме. Например, используя понимание естественного языка , алгоритм может выполнить анализ настроений по текстовой обратной связи университетского курса, чтобы определить, насколько студентам в целом понравился или не понравился курс.

задача последовательности в последовательности

#язык

Задача, которая преобразует входную последовательность токенов в выходную последовательность токенов. Например, есть два популярных типа задач «последовательность за последовательностью»:

  • Переводчики:
    • Пример последовательности ввода: «Я люблю тебя».
    • Пример последовательности вывода: «Я люблю тебя».
  • Ответ на вопрос:
    • Пример последовательности ввода: «Нужна ли мне моя машина в Нью-Йорке?»
    • Пример последовательности вывода: «Нет. Пожалуйста, оставьте машину дома».

пропуск грамма

#язык

N-грамма , которая может опускать (или «пропускать») слова из исходного контекста, что означает, что N слов изначально могли не быть соседними. Точнее, «k-skip-n-gram» — это n-грамма, для которой может быть пропущено до k слов.

Например, «быстрая коричневая лисица» имеет следующие возможные 2-граммы:

  • "быстрый"
  • «быстрый коричневый»
  • "бурая лиса"

«1-пропуск-2-грамма» — это пара слов, между которыми есть не более 1 слова. Таким образом, «быстрая бурая лисица» имеет следующие 1-скиповые 2-граммы:

  • "коричневый"
  • "быстрая лиса"

Кроме того, все 2-граммы также являются 1-пропускными-2-граммами, поскольку можно пропустить менее одного слова.

Пропускные граммы полезны для лучшего понимания контекста, окружающего слово. В примере «лиса» напрямую ассоциировалась с «быстрым» в наборе 1-скип-2-грамма, но не в наборе 2-грамма.

Пропускные граммы помогают обучать модели встраивания слов .

мягкая быстрая настройка

#язык
#генеративныйИИ

Техника настройки большой языковой модели для конкретной задачи без ресурсоемкой тонкой настройки . Вместо повторного обучения всех весов в модели мягкая настройка подсказки автоматически корректирует подсказку для достижения той же цели.

Учитывая текстовое приглашение, программная настройка приглашения обычно добавляет к приглашению дополнительные вставки токенов и использует обратное распространение ошибки для оптимизации ввода.

«Жесткое» приглашение содержит фактические токены вместо встраивания токенов.

редкая особенность

#язык
#основы

Объект , значения которого преимущественно равны нулю или пусты. Например, объект, содержащий одно значение 1 и миллион значений 0, является редким. Напротив, плотный объект имеет значения, которые преимущественно не равны нулю или пусты.

В машинном обучении удивительное количество функций являются редкими. Категориальные признаки обычно являются разреженными. Например, из 300 возможных пород деревьев в лесу единственный пример может идентифицировать только клен . Или из миллионов возможных видео в видеотеке единственный пример может идентифицировать только «Касабланку».

В модели вы обычно представляете разреженные элементы с помощью горячего кодирования . Если горячее кодирование большое, вы можете поместить слой внедрения поверх горячего кодирования для большей эффективности.

редкое представительство

#язык
#основы

Сохранение только позиций ненулевых элементов в разреженном объекте.

Например, предположим, что категориальный признак с именем species идентифицирует 36 видов деревьев в определенном лесу. Далее предположим, что каждый пример идентифицирует только один вид.

Вы можете использовать горячий вектор для представления пород деревьев в каждом примере. Вектор one-hot будет содержать одну цифру 1 (для обозначения конкретной породы деревьев в этом примере) и 35 0 (для обозначения 35 пород деревьев , не входящих в этот пример). Итак, горячее представление maple может выглядеть примерно так:

Вектор, в котором позиции с 0 по 23 содержат значение 0, позиция 24 — значение 1, а позиции с 25 по 35 — значение 0.

В качестве альтернативы, редкое представительство просто идентифицировало бы положение конкретного вида. Если maple находится в позиции 24, то разреженное представление maple будет просто:

24

Обратите внимание, что разреженное представление намного компактнее, чем «горячее» представление.

поэтапное обучение

#язык

Тактика обучения модели в последовательности дискретных этапов. Целью может быть либо ускорение процесса обучения, либо достижение лучшего качества модели.

Иллюстрация прогрессивного подхода к укладке показана ниже:

  • Этап 1 содержит 3 скрытых слоя, этап 2 содержит 6 скрытых слоев и этап 3 содержит 12 скрытых слоев.
  • На этапе 2 тренировка начинается с весов, изученных на 3 скрытых слоях этапа 1. На этапе 3 тренировка начинается с весов, изученных на 6 скрытых слоях этапа 2.

Три этапа, которые обозначены как Этап 1, Этап 2 и Этап 3. Каждый этап содержит разное количество слоев: Этап 1 содержит 3 слоя, Этап 2 содержит 6 слоев и Этап 3 содержит 12 слоев. 3 слоя из Этапа 1 становятся первыми 3 слоями Этапа 2. Аналогично, 6 слоев из Этапа 2 становятся первыми 6 слоями Этапа 3.

См. также конвейерную обработку .

токен подслова

#язык

В языковых моделяхтокен , представляющий собой подстроку слова, которая может быть целым словом.

Например, такое слово, как «itemize», можно разбить на части «item» (коренное слово) и «ize» (суффикс), каждая из которых представлена ​​своим собственным токеном. Разделение необычных слов на такие части, называемые подсловами, позволяет языковым моделям работать с более распространенными составными частями слова, такими как префиксы и суффиксы.

И наоборот, общие слова, такие как «иду», могут не разбиваться на части и могут быть представлены одним токеном.

Т

Т5

#язык

Модель обучения с передачей текста в текст, представленная Google AI в 2020 году . T5 — это модель кодера - декодера , основанная на архитектуре Transformer , обученная на чрезвычайно большом наборе данных. Он эффективен при выполнении различных задач по обработке естественного языка, таких как генерация текста, перевод языков и ответы на вопросы в разговорной форме.

T5 получил свое название от пяти букв «Т» в «Преобразователе передачи текста в текст».

Т5Х

#язык

Платформа машинного обучения с открытым исходным кодом, предназначенная для создания и обучения крупномасштабных моделей обработки естественного языка (NLP). T5 реализован на базе кода T5X (построенного на JAX и Flax ).

температура

#язык
#изображение
#генеративныйИИ

Гиперпараметр , который контролирует степень случайности выходных данных модели. Более высокие температуры приводят к более случайному выходному сигналу, тогда как более низкие температуры приводят к менее случайному выходному сигналу.

Выбор оптимальной температуры зависит от конкретного применения и предпочтительных свойств выходной модели. Например, вы, вероятно, повысите температуру при создании приложения, генерирующего творческий результат. И наоборот, вы, вероятно, понизите температуру при построении модели, которая классифицирует изображения или текст, чтобы повысить точность и согласованность модели.

Температура часто используется с softmax .

текстовый диапазон

#язык

Диапазон индексов массива, связанный с определенным подразделом текстовой строки. Например, слово « good в строке Python s="Be good now" занимает текстовый диапазон от 3 до 6.

жетон

#язык

В языковой модели — атомарная единица, на которой модель обучается и делает прогнозы. Токен обычно является одним из следующих:

  • слово - например, фраза «собаки любят кошек» состоит из трех словесных токенов: «собаки», «нравятся» и «кошки».
  • символ — например, фраза «рыба-велосипед» состоит из девяти жетонов символов. (Обратите внимание, что пустое место считается одним из жетонов.)
  • подслова — в которых одно слово может быть одним токеном или несколькими токенами. Подслово состоит из корня слова, приставки или суффикса. Например, языковая модель, в которой в качестве токенов используются подслова, может рассматривать слово «собаки» как два токена (коренное слово «собака» и суффикс множественного числа «s»). В той же самой языковой модели одно слово «высокий» может рассматриваться как два подслова (коренное слово «высокий» и суффикс «эр»).

В доменах за пределами языковых моделей токены могут представлять другие виды атомарных единиц. Например, в компьютерном зрении токен может быть подмножеством изображения.

Трансформатор

#язык

Архитектура нейронной сети , разработанная в Google, которая опирается на механизмы самообслуживания для преобразования последовательности входных вложений в последовательность выходных вложений, не полагаясь на свертки или рекуррентные нейронные сети . Трансформер можно рассматривать как набор слоев самообслуживания.

Трансформатор может включать в себя любое из следующего:

Кодер преобразует последовательность вложений в новую последовательность той же длины. Кодер включает в себя N одинаковых слоев, каждый из которых содержит два подуровня. Эти два подслоя применяются в каждой позиции входной последовательности внедрения, преобразуя каждый элемент последовательности в новое внедрение. Первый подуровень кодера объединяет информацию со всей входной последовательности. Второй подуровень кодера преобразует агрегированную информацию в выходное внедрение.

Декодер преобразует последовательность входных вложений в последовательность выходных вложений, возможно, с другой длиной. Декодер также включает в себя N идентичных уровней с тремя подуровнями, два из которых аналогичны подуровням кодера. Третий подуровень декодера принимает выходные данные кодера и применяет механизм самообслуживания для сбора информации из него.

Сообщение в блоге «Трансформер: новая архитектура нейронной сети для понимания языка» представляет собой хорошее введение в трансформеры.

триграмма

#seq
#язык

N-грамма , в которой N=3.

ты

однонаправленный

#язык

Система, которая оценивает только текст, предшествующий целевому разделу текста. Напротив, двунаправленная система оценивает как текст, который предшествует , так и следующий за целевой частью текста. Дополнительную информацию см. в разделе «Двунаправленный» .

однонаправленная языковая модель

#язык

Языковая модель , которая основывает свои вероятности только на токенах , появляющихся до , а не после целевых токенов. Контраст с двунаправленной языковой моделью .

В

вариационный автоэнкодер (VAE)

#язык

Тип автоэнкодера , который использует несоответствие между входными и выходными данными для создания модифицированных версий входных данных. Вариационные автоэнкодеры полезны для генеративного ИИ .

VAE основаны на вариационном выводе: методе оценки параметров вероятностной модели.

Вт

встраивание слов

#язык

Представление каждого слова в наборе слов внутри вектора внедрения ; то есть представление каждого слова как вектора значений с плавающей запятой от 0,0 до 1,0. Слова со схожим значением имеют более схожие представления, чем слова с разными значениями. Например, морковь , сельдерей и огурцы будут иметь относительно схожие представления, которые будут сильно отличаться от изображений самолета , солнцезащитных очков и зубной пасты .

З

подсказка с нулевым выстрелом

#язык
#генеративныйИИ

Приглашение , не содержащее примера того, как должна реагировать большая языковая модель . Например:

Части одной подсказки Примечания
Какая официальная валюта указанной страны? Вопрос, на который вы хотите получить ответ от LLM.
Индия: Фактический запрос.

Модель большого языка может ответить любым из следующих действий:

  • Рупия
  • индийская рупия
  • Индийская рупия
  • рупия
  • Индийская рупия

Все ответы верны, хотя вы можете предпочесть определенный формат.

Сравните и сопоставьте подсказки с нулевым выстрелом со следующими терминами: