반응형 Robots.txt1 네이버 검색로봇 설정 (텍스트 파일 업로드 방식) 네이버 검색로봇이란?robots.txt는 검색로봇에서 사이트 및 웹페이지를 수집할 수 있도록 허용하거나 제한하도록 하는 설정 방법이다. 예를 들어 특정 검색엔진 로봇에 수집을 허용할 수도 있고, 모든 검색엔진의 로봇에 대한 수집을 허용할 수 있으며, 또한 사이트 루트 페이지만 수집을 허용하거나 개인 정보 페이지와 같은 개인 정보가 담기 페이지는 비허용으로도 설정할 수 있다. 이 설정 방법은 일반 텍스트 파일로 작성하고 사이트의 루트 디렉터리에 robots.txt 형태의 파일로 저장해야 하며 robots.txt 파일 작성 시 로봇 배제 표준을 따라 작성해야 한다. 위 내용이 어렵다면 아래 내용을 따라 설정하면 어렵지 않으니 천천히 따라 해 보길 바란다. 네이버 검색로봇 설정 방법네이버 서치어드바이저.. 2022. 3. 3. 이전 1 다음 반응형