검색 엔진 최적화 (SEO, Search Engine Optimization)란?

1 minute read

앞으로 투입되어 진행할 프로젝트의 프론트엔드 서버 개발 외에 SEO라는 핵심 과제가 추가적으로 있다. 생전 처음 들어보는 용어인데 서비스 기업 측면에서 굉장히 중요한 마케팅 전략(?)이라고 볼 수 있다. 구글, 네이버 등 외부 검색 엔진 상 콘텐츠 노출의 성패를 가릴 수 있기 때문에 SEO 전략 수립이 굉장히 탄탄하게 이루어져야 한다.

작업 대상에 따라 웹사이트를 최적화하는 테크니컬 SEO, 콘텐츠 자체를 최적화하는 콘텐츠 SEO로 크게 구분지을 수 있다.

테크니컬 SEO (Technical SEO)

이름에서도 알 수 있듯이 기술적인 요소가 기반이 되는 방식이기 때문에 마케터 혼자가 아닌 개발자와의 협업이 요구되는 방식이다. 검색 엔진의 웹 크롤러가 자사의 웹페이지 및 콘텐츠를 쉽게 찾을 수 있도록 기술적인 토대를 마련하는 것이다. 검색 엔진에 따라 적용되는 알고리즘이 다르므로 진행해야 할 SEO 작업도 각양각색이지만 대표적으로 아래와 같이 3개의 작업이 있다.

웹사이트의 도메인 관리

웹사이트의 도메인 관리에는 2개의 방식이 있는데, Subdomain 방식과 Subfolder 방식으로 나뉜다.

  • Subdomain 방식
    • 메인 페이지(arsenal.com)
    • 일정 페이지(fixtures.arsenal.com)
    • 선수 페이지(squads.arsenal.com)
    • 기사 페이지(news.arsenal.com)
  • Subfolder 방식
    • 메인 페이지(arsenal.com)
    • 일정 페이지(arsenal.com/fixtures)
    • 선수 페이지(arsenal.com/squads)
    • 기사 페이지(arsenal.com/news)

위 목록의 각 주소에서 알 수 있듯이 Subdomain 방식은 웹페이지들을 각각 독립된 도메인으로 관리하고, Subfolder 방식은 하위 도메인으로 확장시켜 웹페이지들을 관리하는 방식이다.

구글 검색 엔진의 경우 다양한 요소(콘텐츠 품질, 연결 링크 품질, 페이지 방문 시간 등)을 평가하여 도메인에 평가 점수를 매기는데, Subdomain 방식은 모든 도메인의 점수를 관리해야 하고, Subfolder 방식의 경우 관리해야 할 포인트가 최상위 도메인 1개이기 때문에 효율성이 높다.

사이트맵 제출

대부분의 사이트에서 쉽게 찾을 수 있는 사이트맵을 제출하여 크롤링 과정에서 발견하지 못한 페이지들도 크롤링, 인덱싱할 수 있다. XML 파일 등 정해진 양식에 따라 작성한다.

robots.txt

구글링하다가 간간히 발견했었던 robots.txt 파일도 테크니컬 SEO 작업 중의 하나이다. robots.txt 파일은 웹 크롤러의 웹페이지 수집을 차단하는 역할을 하는데, 웹페이지 수집을 막는 것이 왜 SEO를 향상시킬 수 있는 작업인지 의아했다.

구글의 경우 중복 콘텐츠에 대한 페널티가 있다고 한다. 중복된 콘텐츠가 크롤링되면 검색 엔진으로부터의 평가가 좋지 않으므로 robots.txt 파일을 이용한다.

콘텐츠 SEO (Contents SEO)

테크니컬 SEO에 반해 콘텐츠 SEO는 마케팅 분야에 더 밀접한 SEO라고 볼 수 있다. 콘텐츠 자체의 접근성과 노출 가능성을 높이는 작업이므로 콘텐츠의 키워드 관리가 핵심이다.

데이터에 기반하여 검색량이 많은 키워드를 사용하는 것이 검색 결과 상위에 노출될 수 있는 하나의 방법이다. 그렇다고 키워드를 무작정 사용하는 것은 효율적이지 못하다. how, to, deploy, container처럼 사용자가 검색하고자 하는 의도가 분명하게 드러나는 3~4개 이상의 단어로 조합된 롱테일 키워드를 사용하는 것이다.

마케팅 업무 특성 상 트렌드에 굉장히 민감해야 하므로 늘 새로운 키워드를 발굴하려는 자세가 필수조건이다.

http://www.bloter.net/archives/309882

Categories:

Updated: