본문 바로가기
모두를 위한 데이터과학

머신러닝 활용 사례

by 석사만세 2023. 2. 17.

머신러닝(기계학습)은 기계가 인간처럼 학습하는 것을 의미하는데 사람의 조작이나 프로그래밍 없이 특정 상황에 대처하도록 기계(컴퓨터) 스스로 학습하는 것을 의미합니다. 인공지능은 머신러닝 기술로 획기적인 기술 발전의 전기를 마련하였으며 이로써 스스로 음성이나 영상을 인식해 처리하고 추론도 가능하게 되었습니다.

 

사례#1) 음성인식
구글과 아마존이 주도하고 있는 음성인식 인공지능 스피커 시장에 삼성전자와 애플, 화웨이 등 글로벌 IT 기업들의 진출이 활발하게 진행되고 있습니다. 인공지능 스피커는 가정 내에서 스마트홈을 구현할 수 있는 기기로, 스마트폰과 태블릿PC에 이어 차세대 개인용 디바이스로 주목받고 있습니다. 시장조사기관인 나스미디어는 2019년 국내 인공지능 스피커 시장이 800만대에 이를 것으로 분석한 바 있습니다. 국내에서는 SK텔레콤과 KT, 네이버, 카카오 등이 시장을 주도하고 있습니다.
인공지능 스피커의 가장 큰 특징은 음성으로 명령을 내리고 정보를 얻거나 작업을 수행할 수 있다는 점입니다. 명령이 음성으로 이루어지다보니 음성인식의 정확성이 인공지능 스피커의 상품성을 결정하게 됩니다. 인공지능 스피커가 음성을 정확하게 인식하도록 학습시키기 위해서는 기계학습에 사용될 많은 양의 음성 데이터가 필요하게 되며, 음성 데이터를 가장 많이 확보한 업체가 시장을 주도하게 될 것으로 예상합니다.
시장조사기관 컨슈머인사이트의 분석에 따르면 인공지능 스피커 이용자의 평균 만족율은 2018년 10월 기준 45%로 낮게 조사되었는데, 주된 불만족 이유는 음성명령 미인식, 미흡한 자연어 처리, 명령 오인 등으로 나타났습니다. 이 조사 결과에서 볼 수 있듯이 음성인식 스피커가 지속적으로 발전하기 위해서는 음성인식 분야의 기능 개선이 필수적이며 여기에 기계학습이 큰 역할을 담당하고 있습니다.

 

사례#2) 이미지 인식
구글 브레인은 2012년 CPU(Central Processing Unit) 1만6천개와 신경망 기술을 활용하여 유뷰트 동영상에서 고양이 사진을 골라내는데 성공했습니다. 이후 구글은 구글 포토 서비스를 통해 사진 속 사용자 얼굴을 인식하는 서비스를 제공했고 2017년에는 개나 고양이 등의 반려견 품종까지 알아맞히는 기술을 발표하기도 했습니다.
스마트폰에 장착된 카메라와 CCTV에서 촬영한 이미지에서 얼굴인식을 통해 잠금해제나 범죄자 검거에 사용되는 사례가 증가하고 있습니다. 애플 아이폰에 구현되어 관심을 끌었던 얼굴 인식은 기계학습에 의한 이미지 인식의 대표적인 사례이며 이 이외에 문자인식, 교통표지판 인식 등이 있습니다. 문자인식 기능의 대표적인 사례로는 OCR(Optical Character Recognition)이 있는데 OCR 기능은 현재 무인주차장 시스템에 도입되어 확산되고 있는 추세입니다. TSR(Traffic Signal Recognition)은 향후 자율주행차 시대를 대비하여 자동차에 장착된 카메라로 속도 제한 등의 교통 표지판을 인식하는 기술로 자율주행차의 핵심 기술입니다.
이미지나 영상 데이터는 정보량이 많은 데이터입니다. 카메라에서 얻은 이미지는 2차원의 평면 배열로 되어 있지만 여기에 색깔, 밝기, 빛의 강도 등이 더해져서 고차원의 정보로 변환되게 됩니다. 인공지능 알고리즘 중에서 이미지 인식에 가장 많이 사용되는 기술이 CNN(Convolution Neural Network)입니다. CNN은 여러 개의 신경망 층으로 이루어져 있으며 각각의 신경망 층(Layer)를 지나면서 각 층의 출력이 단순화되고 추상화 되게 됩니다. 이러한 과정을 거치면서 입력이 복잡한 다차원 행렬이라 하더라도 크기가 큰 행렬을 줄여나가는 합성곱(Convolution)을 통해 답을 찾을 수 있게 됩니다.

 

사례#3) 인공지능 기반의 번역 서비스
인공지능을 통한 번역 서비스가 등장하기 이전의 자동 번역기는 입력된 언어의 규칙대로 번역을 하다 보니 맥락에 맞지 않는 문구가 자주 등장하면서 낮은 품질로 외면 받았습니다. 이후 빅데이터를 활용하여 이미 번역되어 있는 방대한 번역 데이터에서 최적의 결과를 뽑아내는 통계기반 기계번역이나 구문기반 기계번역이 개발되었습니다. 이러한 통계기반 기계번역은 사전에 학습한 단어나 구문에서 통계적으로 가장 많이 번역되었던 것을 단순 조합해서 번역하는 방식이라 여전히 어색하거나 말이 되지 않는 문장들이 생성되었습니다.
최근에는 다량의 데이터로 학습한 인공지능 기반의 번역 서비스들이 등장하면서 해외 여행객들에게 외국어로 인한 불편함을 해소해주고 있습니다. 국내의 대표적인 서비스로 네이버의 파파고가 있습니다. 네이버 파파고는 최근 경어(존댓말) 표현 기능을 제공한다고 발표한 바 있으며, 구글 번역에서 제공되는 언어의 수는 이미 97개를 넘어섰습니다. 인공지능이 번역한 것을 다시 인간이 번역하고 이것을 또 인공지능이 검사하는 방식으로 번역 작업의 품질을 높이는 언바벨(Unbabel) 프로젝트는 70개 이상의 언어를 번역할 수 있습니다. 검증을 통과한 5만명 이상의 번역가와의 협업으로 단순한 기계에 의한 번역보다 훨씬 높은 품질을 구현할 수 있습니다. 이러한 많은 시도에도 불구하고 아직까지는 문화의 차이, 맥락의 이해 분야에서 인공지능 번역이 사람의 수준을 능가하지는 못하고 있습니다. 하지만 로봇이 문화에 따른 이해의 차이를 보충하기 위해 빠른 속도로 데이터를 모으게 된다면 Gap은 극복될 수 있을 것으로 예상됩니다.
인공지능 번역에 사용되는 알고리즘은 RNN(Recurrent Neural Network)입니다. 앞서 이미지 인식에 주로 사용되는 DNN은 문맥이나 특정 지식을 저장하지 못합니다. RNN은 순환 개념을 추가하여 문맥적 지식 번역에 반영하고 단어 생성을 가능하게 합니다. 또한 RNN 기술은 사람이 이해하기 쉬운 문맥에 맞게 번역문을 만들고 문장의 모호함을 해결할 수도 있습니다.

'모두를 위한 데이터과학' 카테고리의 다른 글

빅데이터의 개념 이해  (0) 2023.02.17
이미지 인식과 분류  (0) 2023.02.17
RNN, K-means, KNN, SOM, SVM  (0) 2023.02.17
데이터 마이닝 기법  (0) 2023.02.17
텍스트 데이터 전처리  (0) 2023.02.17