Обновлено 21.03.2024 Словарь #нейросети #промт

Что такое промт в нейросетях

Промт (или «подсказка») – это текст, который вы даете модели искусственного интеллекта (нейронке) для получения ответа. Промт обычно имеет форму вопроса или инструкции.

Пример промта в chatGPT
Каждое написанное вами сообщение в chatGPT — это промт

Как правильно: промт или промПт?

Если кратко, и так, и так. На английском языке этот термин пишется prompt. Формально правильно употреблять именно с буквой «п». Но в русской разговорной речи «промпт» неудобно произносить. Гораздо удобнее «промт». Поэтому это упрощение закрепилось и на письме.

Зачем нужно учиться составлять промты?

Представьте, что вы беседуете с самым умным человеком в мире. Вы задаете ему вопрос, но он отвечает не так, как вы ожидали. Ответ кажется нелогичным (или даже недалеким). Тогда вы задаете этот же вопрос, но более развернуто и с уточнениями. И ваш собеседник дает очень полезный ответ. 

Точно так же себя ведут и большие языковые модели (chatGPT, Gemini, Claude, YandexGPT и прочие). Если им задавать конкретный развернутый вопрос, они ответят как самый умный человек в мире.

Золотое правило промта: покажите промт другу и спросите, может ли он следовать инструкциям в нем и получить точный результат, который вы хотите. Если они запутаются, модель тоже даст не тот ответ, который вы ожидаете.

В этой области даже появилась новая наука – промт инжиниринг.

Промт инжиниринг (Prompt engineering) – это эмпирическая наука, которая занимается созданием и тестированием промтов для оптимизации качества ответа. Контентом может быть текст, изображение, видео и любой другой вид медиа. Спрос на вакансии промт-инженера растет каждую неделю.

Кроме этих понятий, пригодится знание еще нескольких терминов из области нейросетей:

Токен – наименьшая отдельная единица языковой модели (нейросети). Токен не равен символу. Он может соответствовать слову, подслову, символам или даже байтам. Например, для английского языка 1 токен приблизительно составляет 3,5 символа, хотя точное количество может варьироваться в зависимости от используемого языка.

Пример:
Фраза «ChatGPT is great!» содержит 17 символов и 6 токенов:
[«Chat», «G», «PT», «is», «great», «!»]

Контекстное окно — простыми словами это «память» модели. У каждой модели есть ограничение на входящее количество символов. Модель использует весь текст, который вы ей отправили, и весь текст, который она сгенерировала до сих пор, чтобы предсказать следующий токен.

Большое контекстное окно позволяет модели понимать более сложные запросы и качетсвенне давать ответы.

Маленькое контекстное окно может ограничить способность поддерживать согласованность при длительных диалогах. Она будет быстро «забывать» суть беседы.

 

 

Похожие материалы по этой теме

Свежие новости