딥러닝 기술의 미래
딥러닝이란 이미지 · 동영상 등을 분석하여 그 사람의 표정 · 목소리 · 움직임 등을 인식하는 기술입니다.
이미지가 어떤 형태로, 어떤 위치에 존재하는지를 자동으로 인식하기 때문에 사람의 감정까지 분석할 수 있어 인공지능 분야에서의 활용이 기대되고 있습니다.
먼저, 딥러닝의 역사에 대해서 알아보겠습니다.
머신러닝과 딥러닝의 차이 머신러닝은 이미지의 특징이 어떤 것인지를 발견하고 그 특징과 유사한 특징을 갖는 데이터를 학습시키는 기술입니다.
이런 특징을 발견하는 과정에는 이미지를 보고 어떤 내용인지를 찾는 연구와 주어진 이미지에는 어떤 특징이 있는지를 찾는 연구가 있습니다.
딥러닝은 머신러닝의 방법이 이미지뿐 아니라 동영상까지 확장된 기술입니다.
딥러닝은 신경망 기술을 사용하는 것입니다.
신경망은 영어로 neural networks라고 하며 학습의 기능을 갖는 인공신경망(artificial neural networks)을 가리킵니다(Neural networks = neurons).
뇌와 유사한 인공신경망 구조를 형성하여 학습을 하는 것입니다.
딥러닝의 구조는 입력층(infill layer) · 은닉층(hidden layer) · 출력층(output layer)으로 되어 있고 각 층은 여러 개의 뉴런(neuron)을 가지고 있습니다.
뉴런은 2개의 입력층 사이에서 정보를 전달하는 역할을 하는 것으로 입력층의 특징과 출력층의 특징이 동일하다는 가정하에 입력층의 특징을 출력층에 전달하는 것입니다.
이것은 입력층과 출력층 사이에는 가중치가 있다는 것입니다.
예를 들어 이미지가 있다면, 입력층은 입력층의 특징을, 출력층은 출력층의 특징을 가지도록 학습을 하는 것입니다.
이미지를 분석하는 기술은 머신러닝이지만 실제로 사람의 표정을 인식할 때에는 딥러닝을 사용하고 있습니다.
딥러닝 기술은 1960년대부터 연구되기 시작했습니다.
머신러닝 기술이 나온 지 40년이 되었습니다.
머신러닝 기술은 초기 데이터가 입력되면 사람이 입력값에 대해 어떤 특징을 갖는지를 발견하고 그 특징과 유사한 특징을 갖는 데이터를 찾는 것입니다.
딥러닝은 머신러닝과 조금 다릅니다.
머신러닝은 입력한 데이터가 어떤 특징을 가지고 있는지를 찾는 것이고 딥러닝은 입력된 데이터에 입력값이 어떤 특징을 가지고 있는지를 찾는 기술입니다.
머신러닝과 딥러닝의 가장 큰 차이는 머신러닝이 이미지에만 관심이 있는 것과는 달리 딥러닝은 동영상 입력에도 관심을 두고 있다는 점입니다.
머신러닝은 이미지에 관심이 있고 딥러닝은 동영상에 관심이 있습니다.
머신러닝이 이미지에 관심을 쏟는 이유는 이미지 분석은 머신러닝이 가장 쉽게 적용할 수 있는 분야이기 때문입니다.
머신러닝은 이미지를 분석하는 것이 가장 쉽습니다.
머신러닝은 이미지를 분석해서 그 특징과 유사한 특징을 가진 데이터를 학습시키는 것입니다.
학습이 끝나면 학습 결과에 따라 이미지가 어떤 종류의 영상이었는지, 어떤 색상이었는지 등을 알려줍니다.
머신러닝은 학습할 때 입력한 데이터와 유사한 입력 데이터를 찾습니다.
머신러닝의 한계 딥러닝은 머신러닝의 방법으로 이미지를 분석할 수 있는 거의 모든 분야에 적용 가능합니다.
하지만 딥러닝의 한계점이 있습니다.
먼저, 딥러닝의 단점은 이미지를 촬영하여 분석할 때 사용하는 카메라의 성능이 제한적이라는 것입니다.
딥러닝의 한 가지 한계는 컴퓨터가 스스로 학습하는 것이 아니라 사람이 도와주어야 한다는 것입니다.
예를 들어, 비디오에 배경음악이 깔려 있고, 고양이가 등장하는 영상을 카메라로 촬영하여 고양이가 어떤 자세를 하고 있는지를 분석할 때, 카메라 성능에 제한이 있을 경우 고양이가 다른 장소에 있다는 것을 놓치는 경우가 발생할 수 있습니다.
다음으로, 딥러닝은 인간의 뇌와 유사한 인공신경망 구조를 가지고 있어 컴퓨터가 스스로 학습하는 것이 아니라 학습하는 방법을 배우는 것이기 때문에 컴퓨터가 학습하는 방법에 한계가 있습니다.
예를 들어, 고양이 표정 분석을 학습하여 고양이가 카메라 정면을 응시하고 있는지, 왼쪽 혹은 오른쪽을 응시하고 있는지를 알려주는 것에는 한계가 있다는 것입니다.
또, 딥러닝은 사람의 표정 · 목소리 · 움직임 등을 분석할 때에 그 사람의 감정까지 분석할 수 있는데 이러한 기술은 구현이 어렵습니다.
딥러닝을 활용하는 이유 사람은 얼굴 표정 등을 통해 감정 상태를 표현합니다.
이 감정 표현을 통해 사람의 마음을 읽을 수 있어 현재 얼굴 표정만으로도 그 사람의 감정 상태를 추정할 수도 있습니다.
예를 들어, 사람이 눈을 감고 있을 때와 눈을 뜨고 있을 때의 표정이 다르다는 것을 확인했다고 가정해 봅시다.
눈을 감으면 사람은 표정을 볼 수 없기 때문에 눈을 뜨고 있을 때의 표정을 통해 그 사람의 기분을 추정할 수 있습니다.
이렇게 표정만으로 그 사람의 감정 상태를 유추할 수 있는 것은 표정이 감정을 전달하는 역할을 하기 때문에 가능한 것입니다.
감정은 보통 얼굴의 표정에 의해 표현됩니다.
사람 얼굴은 약 6.5개의 근육에 의해 움직이는데 이 근육은 얼굴 표정을 짓는데 사용됩니다.
눈 · 눈썹 · 입 · 코 · 귀 등의 움직임을 통해 눈 · 입 · 눈썹 · 코 등 얼굴의 기본적인 요소를 변화시킴으로써 얼굴을 변화시킬 수 있습니다.
또, 손 · 팔 등의 움직임을 통해 손 · 팔 등의 기본적인 요소를 변화시킴으로써 얼굴 표정을 변화시킬 수 있습니다.
이처럼 표정을 만드는데 다양한 요소가 필요한데, 표정을 만드는 요소에는 얼굴 근육 외에도 얼굴의 뼈 · 잇몸 등 사람의 몸의 여러 부분이 사용됩니다.
반응형
'기술' 카테고리의 다른 글
왜 블록체인 기술이 급부상했는가 (0) | 2022.04.16 |
---|---|
블록체인이 혁신적인 이유 (0) | 2022.04.12 |
딥러닝 기술의 과거와 미래 (0) | 2022.04.07 |
블록체인 기술의 미래 (0) | 2022.04.05 |
인공지능에도 감정이 있을까? (0) | 2022.04.05 |