머신러닝 용어집: 이미지 모델

이 페이지에는 이미지 모델 용어집 용어가 포함되어 있습니다. 모든 용어집 용어를 보려면 여기를 클릭하세요.

A

증강 현실

#image

컴퓨터 생성 이미지를 사용자가 보는 실제 환경에 중첩하여 합성 뷰를 제공하는 기술입니다.

오토인코더

#language
#image

입력에서 가장 중요한 정보를 추출하도록 학습하는 시스템입니다. 자동 인코더는 인코더디코더의 조합입니다. 자동 인코더는 다음과 같은 2단계 프로세스를 사용합니다.

  1. 인코더는 입력을 (일반적으로) 손실이 있는 저차원(중간) 형식으로 매핑합니다.
  2. 디코더는 저차원 형식을 원래의 고차원 입력 형식에 매핑하여 원래 입력의 손실 버전을 빌드합니다.

자동 인코더는 디코더가 인코더의 중간 형식에서 원래 입력을 최대한 유사하게 재구성하려고 시도하도록 하여 엔드 투 엔드로 학습됩니다. 중간 형식은 원본 형식보다 작기 때문에(저차원) 자동 인코더는 입력의 어떤 정보가 필수적인지 학습해야 하며 출력이 입력과 완전히 동일하지 않습니다.

예를 들면 다음과 같습니다.

  • 입력 데이터가 그래픽인 경우 정확하지 않은 사본이 원본 그래픽과 유사하지만 약간 수정됩니다. 정확하지 않은 사본이 원본 그래픽에서 노이즈를 제거하거나 누락된 일부 픽셀을 채울 수 있습니다.
  • 입력 데이터가 텍스트이면 오토인코더는 원본 텍스트를 모방하지만 동일하지는 않은 새 텍스트를 생성합니다.

변분 자동 인코더도 참고하세요.

자동 회귀 모델

#language
#image
#생성형AI

자체 이전 예측을 기반으로 예측을 추론하는 model입니다. 예를 들어 자동 회귀 언어 모델은 이전에 예측된 토큰을 기반으로 다음 토큰을 예측합니다. 모든 Transformer 기반 대규모 언어 모델은 자동 회귀를 지원합니다.

반대로 GAN 기반 이미지 모델은 단계를 반복하지 않고 단일 정방향 전달로 이미지를 생성하므로 일반적으로 자동 회귀성이 없습니다. 그러나 특정 이미지 생성 모델은 이미지를 단계적으로 생성하기 때문에 자동 회귀가 가능합니다.

B

경계 상자

#image

이미지에서 관심 영역(예: 아래 이미지에 나온 강아지)을 둘러싼 직사각형의 (x, y) 좌표입니다.

소파에 앉아 있는 강아지 사진 왼쪽 상단 좌표가 (275, 1271)이고 오른쪽 하단 좌표가 (2954, 2761)인 녹색 경계 상자가 강아지의 몸을 둘러싸고 있습니다.

C

컨볼루션

#image

수학적으로 간단히 말하면 두 가지 함수가 혼합된 것입니다. 머신러닝에서 컨볼루션은 가중치를 학습시키기 위해 컨볼루셔널 필터와 입력 행렬을 혼합합니다.

머신러닝에서 '컨볼루션'이라는 용어는 주로 컨볼루셔널 연산 또는 컨볼루셔널 레이어를 축약하여 지칭합니다.

컨볼루션이 없으면 머신러닝 알고리즘이 대형 텐서의 모든 셀에 대해 별도의 가중치를 학습해야 합니다. 예를 들어 2K x 2K 이미지를 학습하는 머신러닝 알고리즘에서는 400만 개의 개별 가중치를 찾아야 합니다. 컨볼루션 덕분에 머신러닝 알고리즘은 컨볼루셔널 필터에 있는 모든 셀의 가중치만 찾으면 되므로 모델 학습에 필요한 메모리가 크게 줄어듭니다. 컨볼루셔널 필터는 여러 셀에 걸쳐 복제되므로 각 셀에 필터가 곱해집니다.

컨볼루셔널 필터

#image

컨볼루셔널 연산에서 사용되는 두 가지 중 하나입니다. 다른 하나는 입력 행렬의 슬라이스입니다. 컨볼루셔널 필터는 입력 행렬과 순위는 같지만 모양은 더 작은 행렬입니다. 예를 들어 28x28 입력 행렬이 있는 경우 필터는 28x28보다 작은 모든 2차원 행렬이 될 수 있습니다.

사진 조작에서 컨볼루셔널 필터의 모든 셀은 일반적으로 1과 0의 일정한 패턴으로 설정됩니다. 머신러닝에서 컨볼루셔널 필터는 일반적으로 랜덤 숫자로 지정되며 네트워크는 이상적인 값을 학습합니다.

컨볼루셔널 레이어

#image

입력 행렬을 따라 컨볼루셔널 필터가 전달되는 심층신경망의 레이어입니다. 예를 들어 다음과 같은 3x3 컨볼루셔널 필터를 고려해 보세요.

다음 값을 갖는 3x3 행렬: [[0,1,0], [1,0,1], [0,1,0]]

다음 애니메이션은 5x5 입력 행렬과 관련된 9개의 컨볼루셔널 연산으로 구성된 컨볼루셔널 레이어를 보여줍니다. 각 컨볼루셔널 연산은 입력 행렬의 서로 다른 3x3 슬라이스에서 작동합니다. 그 결과로 생성되는 3x3 행렬 (오른쪽)은 9개의 컨볼루셔널 연산 결과로 구성됩니다.

두 행렬을 보여주는 애니메이션 첫 번째 행렬은 5x5 행렬입니다. [[128,97,53,201,198], [35,22,25,200,195],
 [37,24,28,197,182], [33,28,92,195,131],0],
          두 번째 행렬은 3x3 행렬입니다.
          [[181,303,618], [115,338,605], [169,351,560]].
          두 번째 행렬은 5x5 행렬의 서로 다른 3x3 하위 집합에
          컨볼루셔널 필터 [[0, 1, 0], [1, 0, 1], [0, 1, 0]] 을 적용하여
          계산됩니다.

컨볼루셔널 신경망

#image

적어도 하나의 레이어가 컨볼루셔널 레이어신경망입니다. 일반적인 컨볼루셔널 신경망은 다음 레이어의 조합으로 구성됩니다.

컨볼루셔널 신경망은 이미지 인식과 같은 특정 종류의 문제에서 큰 성공을 거두었습니다.

컨볼루셔널 연산

#image

다음은 2단계 수학 연산입니다.

  1. 컨볼루셔널 필터 및 입력 행렬의 슬라이스 등 요소별 곱셈입니다. 입력 행렬의 슬라이스는 컨볼루셔널 필터와 순위 및 크기가 동일합니다.
  2. 곱셈의 결과로 얻어지는 행렬 내 모든 값의 합계입니다.

예를 들어 다음과 같은 5x5 입력 행렬을 생각해 보세요.

5x5 행렬: [[128,97,53,201,198], [35,22,25,200,195],
          [37,24,28,197,182], [33,28,92,195,179], [31,77]

이제 다음과 같은 2x2 컨볼루셔널 필터가 있다고 가정해 보겠습니다.

2x2 행렬: [[1, 0], [0, 1]]

각 컨볼루셔널 연산에는 입력 행렬의 단일 2x2 슬라이스가 포함됩니다. 예를 들어 입력 행렬의 왼쪽 상단에 있는 2x2 슬라이스를 사용한다고 가정해 보겠습니다. 이 슬라이스의 컨볼루션 연산은 다음과 같습니다.

입력 행렬의 왼쪽 상단 2x2 섹션인 [[128,97], [35,22]] 에 컨볼루셔널 필터 [[1, 0], [0, 1]]을 적용합니다.
          컨볼루셔널 필터는 128과 22를 그대로 두고 97과 35를 0으로 만듭니다. 결과적으로 컨볼루션 연산에서는
          150 (128+22)이라는 값이 나옵니다.

컨볼루셔널 레이어는 일련의 컨볼루셔널 연산으로 구성되며, 각 연산은 입력 행렬의 서로 다른 슬라이스에 적용됩니다.

D

데이터 증강

#image

기존 를 변환하여 추가 예를 만들어 학습 예의 범위와 수를 인위적으로 늘림 예를 들어 이미지가 특성 중 하나이지만 모델이 유용한 연결을 학습하기에 충분한 이미지 예가 데이터 세트에 포함되어 있지 않다고 가정해 보겠습니다. 모델이 제대로 학습할 수 있도록 데이터 세트에 라벨이 지정된 이미지를 충분히 추가하는 것이 좋습니다. 그렇게 할 수 없는 경우 데이터 증강을 통해 각 이미지를 회전, 확대, 반사하여 원본 사진의 많은 변형을 생성할 수 있으며, 이를 통해 우수한 학습을 가능하게 하는 충분한 라벨이 지정된 데이터를 생성할 수 있습니다.

깊이별 분리 가능한 컨볼루셔널 신경망 (sepCNN)

#image

컨볼루셔널 신경망 아키텍처는 Inception을 기반으로 하지만 여기서 Inception 모듈은 깊이별로 분리 가능한 컨볼루션으로 대체됩니다. Xception이라고도 합니다.

깊이별 분리 가능한 컨볼루션 (분리 가능한 컨볼루션이라고도 함)은 표준 3D 컨볼루션을 계산 효율성이 높은 두 개의 개별 컨볼루션 연산으로 분류합니다. 첫 번째는 깊이별 컨볼루션, 즉 깊이 1 (nx제곱, 두 번째 컨볼루션, 1점, 두 번째 컨볼루션, 1의 깊이, 두 번째 컨볼루션: 1 (n x n x x 1 포인트)

자세한 내용은 Xception: 심도별 분리 가능한 변환을 사용한 딥 러닝을 참조하세요.

다운샘플링

#image

중복으로 정의된 용어로, 다음 중 하나를 의미할 수 있습니다.

  • 모델을 더 효율적으로 학습하기 위해 특성의 정보 양을 줄입니다. 예를 들어 영상 인식 모델을 학습시키기 전에 고해상도 이미지를 저해상도 형식으로 다운샘플링합니다.
  • 과소 표현된 클래스에 대한 모델 학습을 개선하기 위해 과대 표현된 클래스 예시의 불균형적으로 낮은 비율에 대한 학습 예를 들어 클래스 불균형 데이터 세트에서 모델은 주 구성원 클래스에 대해 많이 학습하는 경향이 있지만 소수 집단에 대해서는 충분히 학습하지 않습니다. 다운샘플링은 대다수 및 소수 클래스에 대한 학습량의 균형을 맞추는 데 도움이 됩니다.

F

미세 조정

#language
#image
#생성형AI

특정 사용 사례에 맞게 매개변수를 미세 조정하기 위해 선행 학습된 모델에서 수행되는 두 번째 작업별 학습 패스입니다. 예를 들어 일부 대규모 언어 모델의 전체 학습 시퀀스는 다음과 같습니다.

  1. 사전 학습: 모든 영어 Wikipedia 페이지와 같은 방대한 일반 데이터 세트를 사용해 대규모 언어 모델을 학습시킵니다.
  2. 미세 조정: 의료 쿼리에 대한 응답과 같은 특정 작업을 수행하도록 선행 학습된 모델을 학습시킵니다. 미세 조정에는 일반적으로 특정 작업에 중점을 둔 수백 또는 수천 개의 예가 포함됩니다.

또 다른 예로, 큰 이미지 모델의 전체 학습 시퀀스는 다음과 같습니다.

  1. 사전 학습: Wikimedia Commons의 모든 이미지와 같은 방대한 일반 이미지 데이터 세트로 대규모 이미지 모델을 학습시킵니다.
  2. 미세 조정: 범고래 이미지 생성과 같은 특정 작업을 수행하도록 선행 학습된 모델을 학습시킵니다.

미세 조정에는 다음 전략을 원하는 대로 조합하여 사용할 수 있습니다.

  • 선행 학습된 모델의 기존 매개변수 모두 수정 이를 전체 미세 조정이라고도 합니다.
  • 선행 학습된 모델의 기존 매개변수 중 일부(일반적으로 출력 레이어에 가장 가까운 레이어)만 수정하고 다른 기존 매개변수는 변경하지 않고 (일반적으로 입력 레이어에 가장 가까운 레이어) 수정 매개변수 효율적인 조정을 참조하세요.
  • 일반적으로 출력 레이어에 가장 가까운 기존 레이어 위에 레이어를 더 추가합니다.

미세 조정은 전이 학습의 한 형태입니다. 따라서 미세 조정은 선행 학습된 모델을 학습시키는 데 사용된 것과 다른 손실 함수 또는 다른 모델 유형을 사용할 수 있습니다. 예를 들어 선행 학습된 대형 이미지 모델을 미세 조정하여 입력 이미지에서 새 수를 반환하는 회귀 모델을 만들 수 있습니다.

미세 조정을 다음 용어와 비교 및 대조해 보세요.

G

생성형 AI

#language
#image
#생성형AI

공식적인 정의가 없는 혁신적인 분야가 새롭게 떠오르고 있습니다. 하지만 대부분의 전문가는 생성형 AI 모델이 다음과 같은 모든 콘텐츠를 생성 ('생성')할 수 있다는 데 동의합니다

  • 복잡함
  • 일관성
  • 원본

예를 들어 생성형 AI 모델로 정교한 에세이나 이미지를

LSTMRNN을 비롯한 일부 초기 기술도 독창적이고 일관된 콘텐츠를 생성할 수 있습니다. 일부 전문가들은 이러한 초기 기술을 생성형 AI로 여기지만, 다른 전문가들은 진정한 생성형 AI를 위해서는 기존 기술이 생산할 수 있는 것보다 더 복잡한 출력이 필요하다고 생각합니다.

예측 ML과 대비되는 개념입니다.

I

영상 인식

#image

이미지에서 객체, 패턴 또는 개념을 분류하는 프로세스입니다. 영상 인식을 이미지 분류라고도 합니다.

자세한 내용은 ML 실습: 이미지 분류를 참조하세요.

IoU (Intersection over Union)

#image

두 집합의 교집합을 합집합으로 나눈 값입니다. 머신러닝 이미지 감지 작업에서 IoU는 정답 경계 상자와 관련하여 모델의 예측된 경계상자의 정확성을 측정하는 데 사용됩니다. 이 경우 두 상자의 IoU는 겹치는 영역과 전체 영역 사이의 비율이며 값의 범위는 0 (예측된 경계 상자와 정답 경계 상자가 겹치지 않음)에서 1 (예측된 경계 상자와 실측 정보 경계 상자의 좌표가 정확하게 동일함)입니다.

아래 이미지를 참고하세요.

  • 예측된 경계 상자 (모델이 그림에 있는 야간 테이블이 있다고 예측하는 위치를 구분하는 좌표)는 보라색 윤곽선으로 표시됩니다.
  • 실측 정보 경계 상자 (그림에서 야간 테이블이 실제로 있는 위치를 구분하는 좌표)는 녹색으로 윤곽선이 표시됩니다.

아를의 빈센트 침실을 그린 반 고흐의 침대 옆 야간 테이블 둘레에 서로 다른 두 개의 경계 상자가 놓여 있습니다. 실측 정보 경계 상자 (녹색)는 야간 표를 완벽하게 우회합니다. 예측된 경계 상자 (보라색)는 50% 아래의 실측 정보 경계 상자의 오른쪽에 오프셋되어 있습니다. 이 상자는 야간 테이블의 오른쪽 하단 4분의 1을 둘러싸지만 테이블의 나머지 부분은 놓칩니다.

여기에서 예측과 정답 경계 상자(왼쪽 아래)의 교집합은 1이고, 예측과 정답 (오른쪽 아래)을 위한 경계 상자의 합집합은 7이므로 IoU는 \(\frac{1}{7}\)입니다.

위와 동일한 이미지이지만 각 경계 상자가 4개의 사분면으로 나뉩니다. 실측 정보 경계 상자의 오른쪽 하단 사분면과 예측된 경계 상자의 왼쪽 상단 사분면이 서로 겹치기 때문에 총 7개의 사분면이 있습니다. 이 겹치는 부분 (녹색으로 강조표시됨)은 교차로를 나타내며 면적은 1입니다. 위와 동일한 이미지이지만 각 경계 상자가 4개의 사분면으로 나뉩니다. 실측 정보 경계 상자의 오른쪽 하단 사분면과 예측된 경계 상자의 왼쪽 상단 사분면이 서로 겹치기 때문에 총 7개의 사분면이 있습니다.
          두 경계 상자로 둘러싸인 전체 내부(녹색으로 강조표시됨)는 합집합을 나타내며 면적은 7입니다.

K

주요점

#image

이미지에 있는 특정 특징의 좌표입니다. 예를 들어 꽃 종을 구분하는 이미지 인식 모델의 경우 주요 포인트는 각 꽃잎, 줄기, 꽃의 중심 등이 될 수 있습니다.

L

landmarks

#image

키포인트의 동의어입니다.

MNIST

#image

LeCun, Cortes, Burges에서 컴파일한 공개 도메인 데이터 세트에 60,000개의 이미지가 포함되어 있습니다. 각 이미지는 인간이 0~9 사이의 특정 숫자를 수동으로 작성한 방법을 보여줍니다. 각 이미지는 28x28 정수 배열로 저장되며 각 정수는 0에서 255 사이의 그레이 스케일 값입니다.

MNIST는 머신러닝을 위한 표준 데이터 세트로, 새로운 머신러닝 접근 방식을 테스트하는 데 자주 사용됩니다. 자세한 내용은 필기 입력된 숫자의 MNIST 데이터베이스를 참고하세요.

P

풀링

#image

이전의 컨볼루셔널 레이어에서 생성된 행렬을 작은 행렬로 줄이는 과정입니다. 풀링은 일반적으로 풀링된 영역에서 최댓값 또는 평균값을 취합니다. 예를 들어 다음과 같은 3x3 행렬이 있다고 가정해 보겠습니다.

3x3 행렬 [[5,3,1], [8,2,5], [9,4,3]]

풀링 연산에서는 컨볼루셔널 연산과 마찬가지로 행렬을 슬라이스로 나눈 다음 스트라이드로 컨볼루셔널 연산을 슬라이드합니다. 예를 들어 풀링 연산에서 컨볼루셔널 행렬을 1x1 스트라이드로 2x2 슬라이스로 나눈다고 가정하겠습니다. 다음 다이어그램에서 볼 수 있듯이 네 가지 풀링 연산이 실행됩니다. 각 풀링 작업이 해당 슬라이스의 4에 대한 최댓값을 선택한다고 가정해 보겠습니다.

입력 행렬은 3x3이며 값은 [[5,3,1], [8,2,5], [9,4,3]]입니다.
          입력 행렬의 왼쪽 상단 2x2 하위 행렬은 [[5,3], [8,2]]이므로 왼쪽 상단 풀링 연산에서는 값 8 (5, 3, 8, 2의 최댓값)을 생성합니다. 입력 행렬의 오른쪽 상단 2x2 하위 행렬은 [[3,1], [2,5]]이므로 오른쪽 상단 풀링 연산은 값 5를 생성합니다. 입력 행렬의 왼쪽 하단 2x2 하위 행렬은 [[8,2], [9,4]]이므로 왼쪽 하단 풀링 연산은 값 9를 생성합니다. 입력 행렬의 오른쪽 하단 2x2 하위 행렬은 [[2,5], [4,3]]이므로 오른쪽 하단 풀링 연산은 값 5를 생성합니다. 요약하면 풀링 연산은 2x2 행렬 [[8,5], [9,5]]을 생성합니다.

풀링은 입력 행렬에서 병진 불변을 적용하는 데 도움이 됩니다.

비전 적용용 풀링은 공식적으로 공간 풀링으로 더 잘 알려져 있습니다. 시계열 활용에서는 일반적으로 풀링을 일시적 풀링이라고 합니다. 비공식적으로 풀링을 서브샘플링 또는 다운샘플링이라고 부르는 경우도 많습니다.

선행 학습된 모델

#language
#image
#생성형AI

이미 학습된 모델 또는 모델 구성요소 (예: 임베딩 벡터)입니다. 선행 학습된 임베딩 벡터를 신경망에 입력하는 경우도 있습니다. 경우에 따라 모델이 선행 학습된 임베딩에 의존하지 않고 임베딩 벡터를 직접 학습시킵니다.

선행 학습된 언어 모델이라는 용어는 사전 학습을 거친 대규모 언어 모델을 의미합니다.

사전 학습

#language
#image
#생성형AI

대규모 데이터 세트에서 모델의 초기 학습입니다. 일부 선행 학습된 모델은 복잡한 거대 모델이며 일반적으로 추가 학습을 통해 미세 조정되어야 합니다. 예를 들어 ML 전문가는 위키백과의 모든 영어 페이지와 같은 방대한 텍스트 데이터 세트에 대해 대규모 언어 모델을 사전 학습시킬 수 있습니다. 사전 학습 후 결과 모델은 다음 기법을 통해 더 세분화할 수 있습니다.

R

회전 불변

#image

이미지 분류 문제에서 알고리즘이 이미지의 방향이 바뀌더라도 이미지를 분류해 낼 수 있는 능력을 의미합니다. 예를 들어 알고리즘은 테니스 라켓이 위를 향하고 있는지, 옆으로 향하는지, 아래를 향하고 있는지에 관계없이 테니스 라켓을 식별할 수 있습니다. 회전 불변이 항상 바람직한 것은 아닙니다. 예를 들어 거꾸로 된 9를 9로 분류해서는 안 됩니다.

병진 불변크기 불변도 참고하세요.

S

크기 불변

#image

이미지 분류 문제에서 알고리즘이 이미지의 크기가 변해도 이미지를 분류해 낼 수 있는 능력을 의미합니다. 예를 들어 알고리즘은 200만 픽셀을 사용하는지 200,000 픽셀을 사용하는지에 관계없이 고양이를 계속 식별할 수 있습니다. 아무리 최고의 이미지 분류 알고리즘이라 하더라도 크기 불변에는 실질적으로 한계가 있습니다. 예를 들어 알고리즘 (또는 사람)이 20픽셀만 사용하는 고양이 이미지를 올바르게 분류할 가능성은 낮습니다.

병진 불변회전 불변도 참고하세요.

공간 풀링

#image

풀링을 참조하세요.

스트라이드

#image

컨볼루셔널 연산이나 풀링에서 다음 일련의 입력 슬라이스 중 각 차원의 델타입니다. 예를 들어 다음 애니메이션은 컨볼루셔널 연산 중 (1,1) 스트라이드를 보여줍니다. 따라서 다음 입력 슬라이스는 이전 입력 슬라이스의 오른쪽 한 위치에서 시작합니다. 작업이 오른쪽 가장자리에 도달하면 다음 슬라이스는 한 단계 아래 왼쪽 끝입니다.

입력 5x5 행렬과 3x3 컨볼루셔널 필터 스트라이드가 (1,1)이므로 컨볼루셔널 필터가 9번 적용됩니다. 첫 번째 컨볼루셔널 슬라이스는 입력 행렬의 왼쪽 상단 3x3 하위행렬을 평가합니다. 두 번째 슬라이스는 상단 중간의 3x3 하위행렬을
     평가합니다. 세 번째 컨볼루셔널 슬라이스는 오른쪽 상단 3x3 하위행렬을
     평가합니다.  네 번째 슬라이스는 왼쪽 중간의 3x3 하위행렬을 평가합니다.
     다섯 번째 슬라이스는 중간 3x3 하위행렬을 평가합니다. 여섯 번째 슬라이스는 오른쪽 중간의 3x3 하위행렬을 평가합니다. 일곱 번째 슬라이스는 왼쪽 하단의 3x3 하위 행렬을 평가합니다.  8번째 슬라이스는 중간의 맨 아래 3x3 하위행렬을 평가합니다. 아홉 번째 슬라이스는 오른쪽 하단 3x3 서브행렬을 평가합니다.

앞의 예는 2차원 스트라이드를 보여줍니다. 입력 행렬이 3차원인 경우 스트라이드도 3차원이 됩니다.

서브샘플링

#image

풀링을 참조하세요.

T

기온

#language
#image
#생성형AI

모델 출력의 무작위성 수준을 제어하는 초매개변수 온도가 높을수록 무작위 출력이 더 많은 반면 온도가 낮을수록 임의 출력이 줄어듭니다.

최적의 온도를 선택하는 방법은 특정 애플리케이션 및 모델 출력의 기본 특성에 따라 달라집니다. 예를 들어 창의적인 결과물을 생성하는 애플리케이션을 만들 때 온도를 높일 수 있습니다. 반대로 모델의 정확성과 일관성을 향상시키기 위해 이미지 또는 텍스트를 분류하는 모델을 빌드할 때는 온도를 낮추는 것이 좋습니다.

온도는 주로 소프트맥스와 함께 사용됩니다.

병진 불변

#image

이미지 분류 문제에서 알고리즘이 이미지 내 객체의 위치가 변하더라도 이미지를 분류해 낼 수 있는 능력을 의미합니다. 예를 들어 알고리즘은 강아지가 프레임의 중앙에 있든 왼쪽 끝에 있든 개를 식별할 수 있습니다.

크기 불변회전 불변도 참고하세요.