Перейти к основному содержимому

OpenAI

Нода отправляет запросы к API OpenAI (Chat Completions) для генерации текста. Поддерживает передачу истории диалога из воркфлоу, системный промпт и расширенные параметры генерации.

Настройка

Нода OpenAI

ПараметрОписание
OpenAI IntegrationВыбор настроенной интеграции OpenAI
Прокси EMD CloudМаршрутизировать запрос через прокси EMD Cloud
МодельМодель OpenAI для генерации (например gpt-4o-mini)
Формат сообщенийСпособ передачи сообщений в запросе
Использовать инструментыВключить поддержку tool calling
Использовать устаревшие функцииВключить поддержку устаревшего function calling
ТемператураСлучайность ответа: 0 — детерминированный, 2 — максимально случайный

Формат сообщений: Использование JSON

Передаёт массив сообщений из поля воркфлоу через выражение, например {{ $json.messages }}.

Ожидаемый формат массива:

[
{ "role": "system", "text": "Ты - полезный ассистент" },
{ "role": "user", "text": "Привет!" },
{ "role": "assistant", "text": "Привет, как дела?" }
]

Формат сообщений: Использование полей ниже

Режим ручного ввода сообщений

ПараметрОписание
Системное сообщениеСистемный промпт — задаёт поведение и контекст модели
РольРоль сообщения: Пользователь или Ассистент
СодержимоеТекст сообщения

Кнопка + ДОБАВИТЬ СООБЩЕНИЕ добавляет следующее сообщение в диалог.

Additional Parameters

Дополнительные параметры генерации, добавляются по необходимости:

ПараметрОписание
Максимум токеновОбщий лимит токенов
Max Completion TokensЛимит токенов только в ответе
Top PNucleus sampling — альтернатива температуре
Штраф за присутствиеШтраф за использование уже упомянутых тем
Штраф за частотуШтраф за повторяющиеся токены
SeedФиксированное зерно для воспроизводимых результатов
Формат ответаФормат вывода (например JSON)
Стрим (бета)Потоковая передача ответа

Выходные данные

Нода возвращает ответ модели в поле message.content, а также метаданные: использованные токены, идентификатор запроса и другие поля ответа API OpenAI.