The present invention provides an emotion analysis method based on an emotion map classified by characteristics of pitch and volume information. The emotion analysis method comprises: a conversion step (S10) of converting collected voice biometric information into PCM data; an extraction step (S20) of extracting frequency and decibel information from the PCM data converted in the step S10; an analysis step (S30) of analyzing the information extracted in the step S20 with an algorithm based on an emotion map; and a derivation step (S40) of deriving an emotion information result value analyzed in the step S30.COPYRIGHT KIPO 2020본 발명은 수집된 음성 생체 정보를 PCM 데이터로 변환하는 변환 단계(S10), 상기 S10 단계에서 변환된 상기 PCM 데이터에서 주파수와 데시벨 정보를 추출하는 추출 단계(S20), 상기 S20 단계에서 추출한 정보를 감정맵 기반 알고리즘으로 분석하는 분석 단계(S30), 및 상기 S30단계에서 분석한 감정 정보 결과값을 도출하는 도출 단계(S40)를 포함하는 음정과 음량 정보의 특징으로 분류된 감정 맵 기반의 감정 분석 방법을 제공한다.