반응형
블로그 이미지
개발자로서 현장에서 일하면서 새로 접하는 기술들이나 알게된 정보 등을 정리하기 위한 블로그입니다. 운 좋게 미국에서 큰 회사들의 프로젝트에서 컬설턴트로 일하고 있어서 새로운 기술들을 접할 기회가 많이 있습니다. 미국의 IT 프로젝트에서 사용되는 툴들에 대해 많은 분들과 정보를 공유하고 싶습니다.
솔웅

최근에 올라온 글

최근에 달린 댓글

최근에 받은 트랙백

글 보관함

카테고리

SEO 홈페이지 마케팅 - Off Page Optimization 4

2012. 1. 12. 23:31 | Posted by 솔웅


반응형

오늘은 SEO 홈페이지 마케팅중 Off Page Optimization 마지막 시간입니다.

오늘 살펴볼 항목은 Social Bookmarking과 robots.txt 파일에 대하여 알아보겠습니다.

### Social Bookmarking
Social Bookmarking은 여러 다양한 북마킹 웹사이트들에서 태그나 키워드들을 이용해서 인터넷에서 웹 유저들에게 웹페이지들의 북마크들을 저장하고 organize하고 search하는위한 방법입니다.

북마킹 웹사이트들에는 아래와 같은 것들이 있습니다.
- Digg
- Del.icio.us
- StumbleUpon
- Technorati
- Reddit
- Squidoo
- Furl
- Yahoo MyWeb
- BlinkBits
- Simpy
- Blogmarks
- Spurl
- Raw Sugar
- Mybloglog
- Kaboodle
- Fark
- Propeller
- Mixx
- DZone
- Gnolia
- Bluedot
- Mybookmarks

이러한 사이트들은 어느 컴퓨터에서도 북마크에 접근하도록 도와줍니다.
Social bookmarking 은 인터넷에서 자신의 웹싸이트로의 링크 만드는데 아주 유용한 서비스 입니다.
여러분의 웹싸이트에서 한 웹페이지를 선택해서 다양한 social bookmarking 웹사이트에 북마크해 놓는것은 아주 중요합니다.
그렇게 해 놓으면 검색 엔진이 여러분의 웹페이지를 쉽게 index할 수 있게 됩니다.

효율적으로 북마크 서비스를 이용하려면 모든 웹 페이지를 북마크해 두지 않아야 합니다.
웹 유저에게 가장 유용한 웹페이지가 어떤 것인지 골라서 이 페이지를 submit 하시는게 좋습니다.


위 이미지는 digg.com 메인 화면 입니다.
이곳에 가셔서 다른 사람들은 어떤식으로 자신의 웹페이지를 북 마킹했는지 보시면 도움이 되실겁니다.

### Robots.txt
Robots.txt 파일은 Search Engine Spider에게 어떤 파일이 인덱스에 사용해야 하는 것이고 어떤것이 아닌지 알려 주는 역할을 합니다.
이 파일은 웹서버의 루트 폴더에 있게 됩니다.

* Robots.txt 파일 만드는 방법
http://www.robotsgenerator.com
이 웹페이지로 가시면 rogots.txt를 편하게 만들 수 있도록 도와줍니다.


여기서 보실 중요한 부분은 Actions 하고 Files or directories 입니다.
한번 샘플로 만들어 볼까요?
먼저 Actions 의 Allow를 체크하고 Files or directories에 /coronasdk 를 넣습니다.
그리고 Add 버튼을 누릅니다.
다음으로 Disallow를 체크하고 /adobe/acrobat.pdf 를 넣습니다.
또 Add 버튼을 누릅니다.
그러면 아래와 같이 됩니다.


코로나SDK는 Allow 하고 어도비 아크로뱃 PDF 파일은 Disallow 했는데 그냥 예를 든 겁니다.
코로나SDK는 모바일 앱을 만드는 아주 유용한 툴인데 이 SDK를 개발 한 사람들은 어도비 사의 플래시( Flash) 개발 팀에 있던 사람들이거든요.
지금은 모바일 앱 개발 툴에서 경쟁관계에 있지만 그렇다고 그게 저하고 무슨 연관이 있는건 아닙니다. :)
잠시 여담이었구요.

이런식으로 내용을 다 작성했으면 그 다음도 간단합니다.
내용을 모두 Copy 하셔서 여러분의 PC에서 메모장이나 에디터나 뭐 그런거로 새 문서 만들어서 복사해 넣습니다.
그리고 그 새 문서를 robots.txt라고 이름 붙입니다.
그리고 그 robots.txt를 여러분의 웹서버 root 폴더에 복사해 넣습니다.

그럼 구글이나 여러 검색엔진들의 Search Engine Spider가 웹을 유령처럼 떠돌아 다니면서 정보를 수집해 갈 때 이 robots.txt가 있으면 이것을 근거로 정보를 가져 갈 겁니다.

위 페이지의 옵션을 보시면 특정 검색엔진(구글, 구글 모바일, msnbot ...)에 Allow 하고 Disallow하도록 하는 기능도 있습니다.

자 이상으로 SEO로 홈페이지 마케팅 하기 공부가 모두 끝났습니다.

다음 글에서는 지금까지의 내용들을 총 정리 하는 팁을 소개해 드릴께요.
반응형