e비즈*솔루션

[취재수첩] 정부 웹사이트, 검색을 허하라

심재석

[디지털데일리 심재석기자] 오는 18, 19일 서울 삼성동 코엑스에서는 ‘국제콘텐츠콘퍼런스(DICON) 2014’가 열린다. 문화체육관광부가 주최하고, 한국콘텐츠진흥원(KOCCA, 홍상표)이 주관하는 이 행사에 대해 주최 측은 '아시아 최대 규모의 콘텐츠 행사'라고 자부하고 있다.

그래서 궁금해졌다. 누가 어떤 내용으로 강연을 하고 어떻게 세션이 구성돼 있는지 알고 싶었다. 관심을 끄는 세션에는 참석해 강연을 들어볼 요량이었다.

그런데 문제가 생겼다. 도대체 행사 홈페이지를 찾을 수가 없는 것이다. 네이버에서 ‘국제콘텐츠콘퍼런스’를 검색했다. 이 행사가 열린다는 소식을 전한 뉴스와 블로그 등은 검색 결과에 나오는데, 이 행사의 홈페이지는 나오지 않았다. 띄어쓰기를 달리해 봐도 결과는 마찬가지였다.

네이버 검색 엔진의 문제인가 해서 구글에서도 찾아봤다. 구글에서도 행사 홈페이지는 검색 결과에 나오지 않았다. 과거 행사에 참석한 사람이 올린 블로그나 이 행사 소식을 전하는 다른 협·단체 웹페이지만 나올 뿐이었다.

약 10분의 시간을 낭비한 후 우여곡절 끝에 홈페이지 주소를 찾아냈다. 한 언론사의 뉴스를 통해 겨우 알아냈다.

아시아 최대 규모의 콘텐츠 행사라는 이 컨퍼런스의 웹사이트는 왜 네이버와 구글에서 검색이 안 됐던 것일까.

비밀은 robots.txt에 있었다. 이 웹사이트는 모든 검색엔진이 그 어떤 정보도 수집하지 못하도록 robots.txt에 명시돼 있던 것이다. robots.txt는 웹사이트와 검색엔진간의 규약으로, 웹사이트가 검색 허용 여부를 robots.txt에 기재해 놓으면, 대부분의 검색엔진은 이에 따른다.

아마 문화부와 한국콘텐츠진흥원이 이 행사의 웹사이트를 만들어 놓은 것은 많은 사람들이 웹사이트를 통해 정보를 얻고, 행사에 참석하길 바랐기 때문일 것이다. 하지만 검색엔진 접근을 막아놓은 것은 웹사이트를 만든 목적과 상반되는 행동이다. 기자와 같이 적극적으로 행사의 홈페이지를 찾았던 사람조차 웹사이트 주소를 알아내기 힘들었다.

별 이유 없이 웹사이트에 검색엔진의 접근을 막는 것은 문화부나 한국콘텐츠진흥원만의 문제는 아니다. 국내 정부 및 공공기관의 상당수가 이같은 행동을 하고 있다. 사람들에게 알리기 위해 웹사이트를 만들어 놓고, 사람들의 접근을 막고 있는 모순된 모습이다.

지난 달 구글의 조사에 따르면, 국내 대학의 4분의 1이 검색엔진 접근을 막고 있는 것으로 나타났다. 숙명여대 웹발전연구소가 국내 대표 공공서비스들 20곳의 웹 개방성을 평가한 결과에 따르면,대부분이 낙제점인 것으로 나타났다.

물론 개인정보가 담긴 페이지가 검색 결과에 나타나는 것은 조심해야 한다. 이런 웹페이지들은 검색이 되지 않도록 막을 필요가 있다. 하지만 모든 웹페이지가 개인정보를 담고 있는 것은 아니다. robots.txt를 이용하면 검색을 허용하는 디렉토리와 검색을 막는 디렉토리를 결정할 수 있고, 검색엔진도 선택할 수 있다.

상당수의 정부 및 공공기관이 검색엔진 접근을 막는 것은 엄청난 개인정보를 보유하고 있기 때문이 아니다. 그냥 큰 의미 없이 습관처럼 검색엔진 접근을 막는 경우가 대부분이다.

이같은 행위들은 국내 인터넷 생태계에 악영향을 끼친다. 웹사이트들이 검색엔진을 차단했기 때문에 일반 웹 검색을 통해서 얻을 수 있는 정보는 한정적이다. 웹 검색을 통해 검색 되는 정보가 적다보니 네티즌들은 네이버와 같은 포털 사이트가 자체적으로 구축한 정보에 만족할 수밖에 없었다. 악순환은 반복됐고, 국내에서 인터넷 검색이란 웹이 아닌 포털 내부 정보를 찾는 것을 의미하게 됐다.

더 이상 의미 없는 검색엔진 차단은 제고돼야 한다.

<심재석 기자>sjs@ddaily.co.kr

심재석
webmaster@ddaily.co.kr
기자의 전체기사 보기 기자의 전체기사 보기
디지털데일리가 직접 편집한 뉴스 채널