As a method for a terminal to predict a user''s cognitive impairment, displaying a fixed target or a moving target to be observed on the screen of the terminal based on coordinate information set during each set time, and displaying the fixed target or moving target Collecting an image of the user''s face in real time, recognizing the eyeball area of the user for each collected image, and generating gaze information based on the eyeball movement extracted from the eyeball area. Calculating the number of times that the coordinate information according to the coordinate information and the gaze information is matched, the number of times that the coordinate information of the moving target and the coordinate information according to the gaze information are matched, and the number of times that the coordinate information is matched in correspondence with the fixed target. And predicting the cognitive impairment of the user based on the score calculated through the total number of times of generation and the score calculated through the total number of times gaze information is generated compared to the number of times the coordinate information is matched in correspondence with the moving target.단말이 사용자의 인지 장애를 예측하는 방법으로서, 사용자가 주시해야 하는 고정 타겟 또는 이동 타겟을 각 설정된 시간 동안에 설정된 좌표 정보들에 기초하여 단말의 화면에 표시하는 단계, 고정 타겟 또는 이동 타겟이 표시되는 동안 사용자의 얼굴을 촬영한 이미지를 실시간으로 수집하는 단계, 수집된 이미지마다 사용자의 안구 영역을 인식하고, 안구 영역에서 추출한 안구 움직임에 기초하여 시선 정보를 생성하는 단계, 각 설정된 시간 동안에 고정 타겟의 좌표 정보와 시선 정보에 따른 좌표 정보가 일치하는 횟수와 이동 타겟의 좌표 정보와 시선 정보에 따른 좌표 정보가 일치하는 횟수를 산출하는 단계, 그리고 고정 타겟에 대응하여 좌표 정보가 일치하는 횟수 대비 시선 정보가 생성된 총 횟수를 통해 산정된 점수와 이동 타겟에 대응하여 좌표 정보가 일치하는 횟수 대비 시선 정보가 생성된 총 횟수를 통해 산정된 점수에 기초하여 사용자의 인지 장애를 예측하는 단계를 포함한다.