머신러닝 용어집: Agentic

이 페이지에는 에이전트 관련 용어가 포함되어 있습니다. 모든 용어집 용어는 여기를 클릭하세요.

A

행동

#agent

에이전트 루프의 단계로, 에이전트가 이유 단계에서 선택한 작업을 실행합니다. 예를 들어 행동 단계에서 API 요청을 보낼 수 있습니다.

action

#agent

강화 학습에서 에이전트환경상태 간에 전환하는 메커니즘입니다. 에이전트는 정책을 사용하여 작업을 선택합니다.

action space(작업 공간)

#agent

에이전트가 작업을 실행하는 데 사용할 수 있는 리소스 집합입니다. 작업 공간에는 에이전트가 호출할 수 있는 도구와 API, 에이전트가 보유한 권한이 포함될 수 있습니다. 일반적으로 작업 공간은 상담사가 작업을 수행할 수 있을 만큼만 커야 합니다. 작업 공간이 너무 작으면 에이전트가 작업을 수행하기에 리소스가 부족할 수 있습니다. 작업 공간이 너무 크면 에이전트가 오류를 더 많이 일으키는 경향이 있습니다.

에이전트

#generativeAI
#agent

사용자를 대신하여 작업을 계획하고 실행하기 위해 사용자 입력에 대해 추론할 수 있는 소프트웨어입니다.

강화 학습에서 에이전트는 정책을 사용하여 환경상태 간 전환에서 얻는 예상 수익을 극대화하는 엔티티입니다.

대리적/대리자적

#generativeAI
#agent

agent의 형용사 형태입니다. 에이전트란 에이전트가 보유한 속성 (예: 자율성)을 말합니다.

에이전트 루프

#agent

종료 조건이 충족될 때까지 에이전트가 반복하는 사이클입니다. 이 주기는 일반적으로 다음 네 단계로 구성됩니다.

  1. 관찰
  2. 이유
  3. Act
  4. 의견

에이전트형 워크플로

#generativeAI
#agent

에이전트가 목표를 달성하기 위해 자율적으로 행동을 계획하고 실행하는 동적 프로세스입니다. 이 프로세스에는 추론, 외부 도구 호출, 계획 자체 수정이 포함될 수 있습니다.

에이전트 조정

#agent

여러 하위 에이전트 또는 LLM 호출 간의 중앙 집중식 작업 관리 및 라우팅 에이전트 오케스트레이션은 복잡한 작업을 더 작은 하위 작업으로 나누고 가장 유능한 하위 에이전트에 할당합니다.

자율 에이전트

#agent

지속적인 인간의 개입 없이 계획, 행동, 적응을 통해 복잡한 목표를 달성하는 에이전트

E

평가자 에이전트

#agent

결과가 확정되기 전에 다른 에이전트의 결과를 평가하는 에이전트입니다. 한 에이전트는 제품을 제조하고 별도의 에이전트(평가자 에이전트)는 출시 전에 해당 제품을 테스트한다고 생각하면 됩니다.

비평가는 평가자 에이전트의 동의어입니다.

F

의견 보내기

#agent

에이전트가 행동 단계에서 취한 조치를 평가하는 에이전트 루프의 단계입니다. 예를 들어 에이전트가 행동 단계에서 API 요청을 보낸 경우 피드백 단계에서 API 응답이 성공했는지 확인할 수 있습니다.

G

Gemini 모델

#generativeAI
#agent

Google의 최첨단 트랜스포머 기반 멀티모달 모델입니다. Gemini 모델은 에이전트와 통합되도록 특별히 설계되었습니다.

사용자는 대화형 대화 인터페이스와 SDK를 비롯한 다양한 방식으로 Gemini 모델과 상호작용할 수 있습니다.

생성형 에이전트 (시뮬라크라)

#agent

현실적인 인간 행동을 시뮬레이션하는 고유한 페르소나, 기억, 루틴을 갖춘 에이전트

자세한 내용은 생성형 에이전트: 인간 행동의 대화형 시뮬라크라를 참고하세요.

M

관리자 에이전트

#agent

하나 이상의 하위 에이전트를 제어하는 에이전트

멀티 에이전트 공동작업

#agent

여러 전문 AI 에이전트가 상호작용하거나, 토론하거나, 복잡한 문제를 해결하기 위해 서로에게 작업을 전달하는 프레임워크입니다.

O

관찰

#agent

에이전트가 에이전트 진행 상황의 일부 측면을 검토하거나 평가하는 에이전트 루프의 단계입니다. 예를 들어 act 단계에서 코드를 생성한다고 가정해 보겠습니다. 따라서 관찰 단계에서 생성된 코드를 테스트할 수 있습니다.

P

계획 및 해결

#agent

모델이 작업을 실행하기 전에 먼저 명시적인 다단계 계획을 초안으로 작성하는 에이전트 전략입니다.

플러그인

#agent

기능을 확장하기 위해 에이전트에 쉽게 연결할 수 있는 표준화된 모듈식 도구입니다. 예를 들어 GitHub 플러그인을 사용하면 상담사가 GitHub 문제를 읽고 pull 요청을 만드는 등의 작업을 실행할 수 있습니다.

절차적 기억

#agent

에이전트에서 어떤 작업을 수행하는 방법에 관한 지식입니다. 예를 들어 에이전트는 웹을 검색하고 상위 3개 사이트를 표시하는 방법에 관한 절차적 기억을 개발할 수 있습니다.

R

reason

#agent

에이전트가 무엇을 해야 할지 결정하는 에이전트 루프의 단계입니다. 예를 들어 에이전트는 특정 API 요청을 전송해야 한다고 결정할 수 있습니다.

사색

#generativeAI
#agent

출력을 다음 단계로 전달하기 전에 단계의 출력을 검토 (반성)하여 에이전트 워크플로의 품질을 개선하는 전략입니다.

검사자는 응답을 생성한 LLM인 경우가 많습니다(다른 LLM일 수도 있음). 대답을 생성한 동일한 LLM이 자체 대답을 공정하게 판단할 수 있나요? '트릭'은 LLM을 비판적 (반성적) 사고방식으로 만드는 것입니다. 이 과정은 창의적인 사고방식으로 초안을 작성한 후 비판적인 사고방식으로 전환하여 수정하는 작가와 유사합니다.

예를 들어 첫 번째 단계가 커피 머그잔용 텍스트를 만드는 에이전트형 워크플로를 생각해 보세요. 이 단계의 프롬프트는 다음과 같을 수 있습니다.

크리에이터입니다. 커피 머그잔에 적합한 50자(영문 기준) 미만의 재미있는 텍스트를 생성해 줘.

이제 다음과 같은 회고 프롬프트를 상상해 보세요.

커피를 마시는 사람이라고 가정해 줘. 위의 대답이 재미있다고 생각하시나요?

그런 다음 워크플로에서 반영 점수가 높은 텍스트만 다음 단계로 전달할 수 있습니다.

라우터 에이전트

#agent

사용자 쿼리를 분류한 다음 이를 처리하기에 가장 적합한 에이전트를 호출하는 에이전트입니다.

S

자기 수정

#agent

자체 출력에서 오류를 감지한 후 다른 접근 방식을 시도하는 에이전트의 능력입니다.

#agent

강화 학습에서 에이전트작업을 선택하는 데 사용하는 환경의 현재 구성을 설명하는 매개변수 값입니다.

상태 머신 에이전트

#agent

엄격한 규칙에 의해 워크플로가 제한되는 에이전트 상태 머신 에이전트는 일반적으로 자율 에이전트보다 실수를 적게 하지만 제약 조건 외의 상황에 적응할 자유가 없습니다.

하위 에이전트

#agent

관리자 에이전트가 더 큰 문제의 특정 하위 집합을 처리하기 위해 호출하는 특수하고 좁은 범위의 모델입니다. 하위 에이전트는 일반적으로 에이전트보다 작업 공간이 좁습니다.

T

종료 조건

#agent

에이전트 AI에서 에이전트가 반복을 중지하도록 알려주는 사전 정의된 기준입니다. 예를 들어 다음과 같은 종료 조건이 있을 수 있습니다.

  • 상담사가 목표를 성공적으로 완료했습니다.
  • 에이전트가 더 이상 리소스를 사용할 수 없습니다.
  • human-in-the-loop에 의해 문제가 감지되었습니다.

강화 학습에서 에이전트가 특정 상태에 도달하거나 기준점 이상의 상태 전환을 초과하는 등 에피소드가 종료되는 시점을 결정하는 조건입니다. 예를 들어 틱택토 (영국에서는 noughts and crosses라고도 함)에서는 플레이어가 연속된 세 칸을 표시하거나 모든 칸이 표시되면 에피소드가 종료됩니다.