[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20100006371A - 화이트/블랙 리스트를 이용한 웹 게시물의 적합성 판단방법 및 시스템 - Google Patents

화이트/블랙 리스트를 이용한 웹 게시물의 적합성 판단방법 및 시스템 Download PDF

Info

Publication number
KR20100006371A
KR20100006371A KR1020080066576A KR20080066576A KR20100006371A KR 20100006371 A KR20100006371 A KR 20100006371A KR 1020080066576 A KR1020080066576 A KR 1020080066576A KR 20080066576 A KR20080066576 A KR 20080066576A KR 20100006371 A KR20100006371 A KR 20100006371A
Authority
KR
South Korea
Prior art keywords
file
server
identification information
uploaded
harmful
Prior art date
Application number
KR1020080066576A
Other languages
English (en)
Inventor
김기연
Original Assignee
(주)지란지교소프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)지란지교소프트 filed Critical (주)지란지교소프트
Priority to KR1020080066576A priority Critical patent/KR20100006371A/ko
Publication of KR20100006371A publication Critical patent/KR20100006371A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Landscapes

  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

본 발명은 웹 게시물의 적합성 판단 방법 및 시스템에 관한 것으로, 본 발명의 목적은 화이트/블랙 리스트를 담고 있는 필터링 모듈을 서버 및 클라이언트에 구비함으로써 웹 게시판에 어떤 게시물이 게시되기 전에 미리 해당 게시물의 적합성 여부를 판단하여 부적합함이 판정되면 게시물을 등록하지 않음으로써 유해 정보를 담고 있는 게시물의 게시를 원천적으로 배제하는, 화이트/블랙 리스트를 이용한 웹 게시물의 적합성 판단 방법 및 시스템을 제공함에 있다.
본 발명에 의한 화이트/블랙 리스트를 이용한 웹 게시물의 적합성 판단 시스템은, 웹 게시판을 운영 및 제어하는 서버(200); 상기 서버(200)와 연결되는 클라이언트(300); 및 상기 서버(200) 및 클라이언트(300)와 연결되며, 무해 파일의 식별 정보를 저장하는 화이트 리스트 데이터베이스(110), 유해 파일의 식별 정보를 저장하는 블랙 리스트 데이터베이스(120) 및 웹 게시판에 업로드 요청된 파일에 대하여 해당 파일의 식별 정보와 상기 화이트 리스트 데이터베이스(110) 및 상기 블랙 리스트 데이터베이스(120)를 비교하여 해당 파일의 유해성을 판단하는 판단 모듈(130)을 포함하여 이루어지는 필터링 모듈(100); 을 포함하여 이루어지며, 상기 필터링 모듈(100)에 의하여 검사되는 파일의 종류는 텍스트, 이미지, 오디오 및 비디오 형태 중 선택되는 어느 한 가지 이상을 포함하는 것을 특징으로 한다. 이 때, 상기 판단 모듈(130)은 상기 서버(200) 단에 직접 연결 또는 내장되어 구비되거나, 또는 상기 클라이언트(300) 단에 내장되는 것을 특징으로 한다.
웹 게시물, 유해, 음란, 폭력, 저작권 침해, 화이트 리스트, 블랙 리스트, 필터링, 식별 정보, 해쉬 값

Description

화이트/블랙 리스트를 이용한 웹 게시물의 적합성 판단 방법 및 시스템 {A Decision Method and System of Suitability for Web Contents using White/Black List}
본 발명은 웹 게시물의 적합성 판단 방법에 관한 것으로, 보다 상세하게는 컴퓨터 또는 자동연산장치에 의해 화이트/블랙 리스트를 이용하여 자동으로 웹 게시물의 적합성을 판단하는 방법 및 시스템에 관한 것이다.
수많은 사용자들이 자유롭게 정보를 올리거나 내림으로써 정보를 공유할 수 있도록 해 주는 웹 게시판은 이미 대부분의 일반인들의 일상에 가까이 자리하고 있다. 이러한 웹 게시판은 지리적으로 먼 곳에 떨어져 있거나 다양한 신분을 가지고 있는 사용자들에게 시간, 공간 및 사회적 제약을 초월하여 서로의 정보와 의견을 교환할 수 있도록 해 주는 순기능을 가지고 있으나, 한편 악의적인 목적을 가지고 있는 사용자나 가치관의 정립이 완전히 이루어지지 않은 미성숙한 인격을 가진 사용자 등에 의하여 유해한 정보 또한 어떠한 제재 없이 퍼뜨려지게 된다는 역기능 역시 가지고 있다. 유해 정보란 사용자의 컴퓨터를 손상시키거나 개인 정보 등을 유출시킬 수 있는 각종 바이러스, 스파이웨어 등이나, 또는 음란ㆍ폭력ㆍ저작권침 해 자료 같은 것을 의미한다.
이 중 바이러스, 스파이웨어 등과 같은 종류의 유해 정보는, 그 내부에 자동으로 식별 가능한 특정한 코드를 가지고 있기 때문에, 이러한 특정 코드에 대한 정보만 수시로 업데이트해 준다면 웹 게시판을 제어하는 웹 서버가 자동으로 해당 유해 정보를 차단하도록 할 수 있다. 즉, 사용자 컴퓨터로부터 웹 서버로 게시물을 업로드할 때, 첨부 파일 등의 정보를 미리 검사하여 바이러스와 같은 유해 정보가 아닌지 판단한 후, 문제가 없을 경우에만 웹 게시판에 게시될 수 있도록 하는 등과 같은 방법이 사용될 수 있다.
그러나 음란ㆍ폭력ㆍ저작권침해 자료 등과 같은 종류의 유해 정보는, 사람이 직접 보고 판단하지 않고는 그것이 유해 정보인지 아닌지를 알 수 없다. 이러한 종류의 유해 정보의 유해성을 판단하기 위해 여러 가지 기술들이 제시되고 있는데, 예를 들어 동영상 자료나 사진 자료의 경우 살색으로 분류되는 색상의 비율이 일정 비율 이상으로 감지되면 음란 자료로 분류하는 것과 같은 유해 정보 자동 판정 기술들이 연구되고 있으나, 판단에 걸리는 시간이 상당히 길 뿐만 아니라 아직까지는 인공지능의 한계로 인하여 오판의 확률이 매우 높다는 문제점들이 있어, 아직까지 실용화되기에는 어려운 실정이다. 따라서 이와 같은 종류의 유해 정보는 현재까지는 웹 게시판의 모니터링 요원이 직접 웹 게시판에 올라오는 모든 게시물을 읽어보고 유해한지를 판단하여 삭제를 하는 방법으로 단속되고 있다. 도 1은 이와 같은 종래의 웹 게시물 적합성 판단 방법의 작동 흐름도를 도시하고 있다. 도시된 바와 같이, 먼저 사용자 컴퓨터에서 파일이 업로드(S101)되면, 웹 서버가 해당 파일을 전송받아 저장(S102)한 후 파일을 게시(S103)한다. 이렇게 게시된 게시물을 모니터링 요원이 확인(S104)하고, 유해한 게시물인지를 판단(S105)한 후, 유해한 게시물이라고 판단되면 모니터링 요원이 해당 게시물을 삭제(S106)하게 되는 것이다. 도 1에서, 모니터링 요원이 수행하는 작업과 관련된 단계들은 점선으로 둘러져(S104~S106) 표시되어 있다. 도시된 바와 같이, 유해한 게시물을 확인(S104), 판단(S105), 삭제(S106)하는 모든 단계가 자동으로 이루어지지 못하고 사람이 일일이 확인해야만 하는 작업이다. 따라서 이와 같은 모니터링 작업을 하는 데 있어 시간 및 인력의 낭비가 심했으며, 게시물에 유해 정보가 들어 있어도 이를 모니터링 요원이 확인하기까지 시간이 오래 걸리게 되는 까닭으로 유해 정보가 웹에 노출되는 빈도가 매우 높아졌다. 또한, 정보의 공유가 자유롭게 이루어지는 웹 컨텐츠의 특성 상 똑같은 유해 자료가 여러 번 웹 게시판에 올라오는 경우, 모니터링 요원이 똑같은 작업을 반복하여야 하여 매우 큰 불편함이 있었다. 따라서 이와 같은 다양한 불편함을 해결하고자 하는 사용자 및 당업자의 요구가 꾸준히 있어 왔다.
한국공개특허 제2001-0025209호(이하 선행기술1)에는 유해 정보 차단 프로그램을 구동시켜 이용자 PC의 유해 정보 차단 및 원격 관리 여부를 설정하고, 유해 정보 차단 기능을 실행시키는 방법에 관한 기술이 개시되어 있다. 상기 선행기술1에서는, 유해 사이트의 웹 페이지 본문 내용을 텍스트 언어로 변환하여 어구 분석 작업을 통해 본문 내용과 링크된 웹 주소를 분류, 링크된 웹 주소만을 데이터베이 스에 기록하도록 되어 있다. 즉, 상기 선행기술1은 불특정다수의 사이트들의 본문 내용들을 검색하여, 유해 단어가 많이 존재하는 사이트일 경우 유해 사이트로 분류하고 해당 사이트의 주소를 유해 정보 데이터베이스에 저장하고, 이와 같이 구축된 유해 정보 데이터베이스를 근거로 하여 사용자가 PC를 통해 상기 유해 정보 데이터베이스에 저장된 유해 사이트의 주소로 접속을 시도할 때 이를 차단하는 기능을 하도록 되어 있다.
또한, 한국공개특허 제2001-0097250호(이하 선행기술2)에는 유해사이트의 접속차단 서비스 제공 장치 및 방법에 관한 기술이 개시되어 있다. 상기 선행기술2에서는, 웹로봇 및 엑스퍼트 엔진을 이용하여 유해 사이트의 목록을 저장하는 차단대상 제어목록을 구축하고, 이를 기반으로 역시 사용자가 상기 차단대상 제어목록에 저장된 유해 사이트의 주소로 접속을 시도할 때 이를 차단하는 기능을 하도록 되어 있다.
여기에서, 상기 선행기술1 및 선행기술2에서는 단지 유해 사이트의 주소, 즉 http://로 시작하는 텍스트 정보인 url을 사용하여 유해 정보를 차단하도록 되어 있다. 그런데, 다수의 자료를 관리하는 사이트의 경우, 자료를 웹 게시판에 업로드하는 형태로 구성하는 것이 가장 용이한 바, 현재 많은 불량 운영자들이 유해 사이트를 구축할 때 웹 게시판을 이용하여 다수의 음란ㆍ폭력ㆍ저작권침해 자료를 업로드하고 있다. 상기 선행기술1 및 선행기술2의 장치 및 방법을 사용하는 경우라면, 이와 같은 과정을 거쳐 일단 유해 사이트가 구축이 된 이후에야, 해당 사이트 내의 단어들을 검색하여 해당 사이트가 유해 사이트라고 분류할 수 있으며, 유해 자료가 업로드 또는 게시되려는 시점에서는 자료 자체의 유해성 판단을 거쳐 업로드 또는 게시를 차단하는 것이 전혀 불가능하다. 즉, 상기 선행기술1 및 선행기술2는 유해 사이트가 구축이 된 이후에야 작동 가능한 기술인 것이다.
상기 선행기술1 및 선행기술2의 한계는 다음과 같은 경우 더욱 분명하게 드러난다. 많은 일반인들이 웹 게시판을 제공하는 사이트를 통해 커뮤니티 사이트를 만든다는 것은 주지의 사실이다. 예를 들면, 다음 카페(http://cafe.daum.net/)의 경우 특별한 절차 없이 누구나 쉽게 웹 게시판 형태로 된 인터넷 커뮤니티 사이트를 개설할 수 있으며, 이와 같은 인터넷 커뮤니티 사이트의 웹 게시판에는 운영자 외에도 회원이기만 하면 누구나 게시물을 올릴 수 있다. 이 때, 웹 게시판을 제공하는 사이트 자체(즉 위의 예에서 다음 카페 자체)는 원래 건전한 목적으로 만들어졌다 하더라도, 몇몇 불량 이용자들이 해당 게시판에 카페 개설 목적과는 전혀 상관없는 유해 자료를 마구 올리는 경우가 발생할 수 있다. 실제로 수많은 커뮤니티 운영자들이 이와 같은 문제 때문에 큰 고통을 겪고 있으며, 이러한 문제가 발생한 커뮤니티가 그 악영향으로 인하여 폐쇄되는 일도 비일비재하다. 그런데, 이러한 경우 해당 커뮤니티 사이트 자체는 원래 건전한 목적으로 만들어진 사이트인 바, 이 사이트를 유해 사이트로 분류하는 것이 어렵다. 또한 상기 선행기술1 및 선행기술2에서 유해 사이트 목록을 관리하는 사람이 수동으로 이러한 사이트를 유해 사이트로 분류하여 데이터베이스화할 경우, 원래 해당 커뮤니티 사이트의 개설자 및 건전한 이용자들로서는 이러한 조치로 인하여 자신의 커뮤니티를 홍보하기 어렵게 되어 이번에는 선의의 피해자들이 양산될 가능성이 매우 높다.
이와 같이 상기 선행기술1 및 선행기술2와 같이 어떤 사이트를 유해 사이트로 분류하고 이 사이트로의 접속을 차단함으로써 유해 정보를 차단하고자 하는 기술은, 다양화되고 개인화된 현재의 인터넷 환경에 있어 충분한 효과를 발휘할 수 없음은 주지의 사실이며, 이러한 문제점을 해결하면서 효과적으로 유해 정보를 차단할 수 있는 기술에 대한 요구가 꾸준히 있어 왔다.
따라서, 본 발명은 상기한 바와 같은 종래 기술의 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은 화이트/블랙 리스트를 이용한 웹 게시물의 적합성 판단 방법 및 시스템을 제공함에 있다. 보다 상세하게는, 화이트/블랙 리스트를 담고 있는 필터링 모듈을 서버 및 클라이언트에 구비함으로써 웹 게시판에 어떤 게시물이 게시되기 전에 미리 해당 게시물의 적합성 여부를 판단하여, 파일이 무해함이 판정되면 더 이상의 검증 과정 없이 곧바로 게시물이 등록되게 함으로써 모니터링 작업량을 크게 줄여 주며, 또한 파일이 유해함이 판정되면 게시물을 등록하지 않음으로써 유해 정보를 담고 있는 게시물의 게시를 원천적으로 배제하는, 화이트/블랙 리스트를 이용한 웹 게시물의 적합성 판단 방법 및 시스템을 제공함에 있다.
상기한 바와 같은 목적을 달성하기 위한 본 발명에 의한 화이트/블랙 리스트를 이용한 웹 게시물의 적합성 판단 시스템은, 웹 게시판을 운영 및 제어하는 서버(200); 상기 서버(200)와 연결되는 클라이언트(300); 및 상기 서버(200) 및 클라이언트(300)와 연결되며, 무해 파일의 식별 정보를 저장하는 화이트 리스트 데이터베이스(110), 유해 파일의 식별 정보를 저장하는 블랙 리스트 데이터베이스(120) 및 웹 게시판에 업로드 요청된 파일에 대하여 해당 파일의 식별 정보와 상기 화이트 리스트 데이터베이스(110) 및 상기 블랙 리스트 데이터베이스(120)를 비교하여 해당 파일의 유해성을 판단하는 판단 모듈(130)을 포함하여 이루어지는 필터링 모듈(100); 을 포함하여 이루어지며, 상기 필터링 모듈(100)에 의하여 검사되는 파일의 종류는 텍스트, 이미지, 오디오 및 비디오 형태 중 선택되는 어느 한 가지 이상을 포함하는 것을 특징으로 한다.
이 때, 상기 판단 모듈(130)은 상기 서버(200) 단에 직접 연결 또는 내장되어 구비되거나, 또는 상기 클라이언트(300) 단에 내장되는 것을 특징으로 한다.
또한, 상기 식별 정보는 해당 파일의 해쉬 값인 것을 특징으로 한다. 이 때, 상기 해쉬 값은 파일 전체에 대한 해쉬 값이거나, 또는 파일 일부에 대한 해쉬 값인 것이 바람직하다.
또한, 상기 화이트 리스트 데이터베이스(110) 및 상기 블랙 리스트 데이터베이스(120)는 상기 판단 모듈(130)이 상기 서버(200) 단 또는 상기 클라이언트(300) 단에 구비되어 상기 서버(200) 및 다수 개의 상기 클라이언트(300)에서 공유되어 운용되거나, 또는 상기 판단 모듈(130)이 상기 클라이언트(300) 단에 구비되어 각각의 상기 클라이언트(300)에서 독립적으로 운용되는 것을 특징으로 한다.
또한, 상기한 바와 같은 목적을 달성하기 위한 본 발명에 의한 화이트/블랙 리스트를 이용한 웹 게시물의 적합성 판단 방법은, 상술한 바와 같은 시스템에 의한 웹 게시물 적합성 판단 방법에 있어서, a1) 상기 클라이언트(300)가 상기 서버(200)로 파일을 업로드하는 단계(S201); b1) 상기 서버(200)가 업로드 요청된 파일을 저장하는 단계(S202); c1) 상기 서버(200)에 직접 연결 또는 내장된 상기 필 터링 모듈(100)이 상기 업로드 요청된 파일이 유해한 게시물인지의 여부를 판단하는 단계(S203); d1-1) 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 무해하다고 판단(S203-No)하면, 상기 서버(200)가 상기 업로드 요청된 파일을 게시하는 단계(S213); 를 포함하여 이루어지는 것을 특징으로 한다.
또한 이 때, a1) 상기 클라이언트(300)가 상기 서버(200)로 파일을 업로드하는 단계(S201); b1) 상기 서버(200)가 업로드 요청된 파일을 저장하는 단계(S202); c1) 상기 서버(200)에 직접 연결 또는 내장된 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 유해한 게시물인지의 여부를 판단하는 단계(S203); d1-2) 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 유해하다고 판단(S203-Yes)하면, 상기 서버(200)가 상기 업로드 요청된 파일을 삭제하고 게시를 거부하는 단계(S223); 를 포함하여 이루어지는 것을 특징으로 한다.
또한 이 때, a1) 상기 클라이언트(300)가 상기 서버(200)로 파일을 업로드하는 단계(S201); b1) 상기 서버(200)가 업로드 요청된 파일을 저장하는 단계(S202); c1) 상기 서버(200)에 직접 연결 또는 내장된 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 유해한 게시물인지의 여부를 판단하는 단계(S203); d1-3) 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 무해성 또는 유해성을 판단이 불가능하다고 판단(S203-Not Defined)하면, 상기 서버(200)가 상기 업로드 요청된 파일을 임시로 게시하는 단계(S223); e1-3) 상기 임시로 게시된 파일이 내용 상 유해한 게시물인지 판단되는 단계(S205); f1-3) 상기 임시로 게시된 파일이 무해하다고 판단(S205-Yes)되면 상기 임시로 게시된 파일이 상기 필터링 모듈(100)에 무해 파일 로 등록(S215)되고 정식으로 게시(S213)되거나, 또는 상기 임시로 게시된 파일이 유해하다고 판단(S205-Yes)되면 상기 임시로 게시된 파일이 상기 필터링 모듈(100)에 유해 파일로 등록(S225)되고 상기 서버(200)가 파일을 삭제(S223)하는 단계; 를 포함하여 이루어지는 것을 특징으로 한다.
또는, 상술한 바와 같은 시스템에 의한 웹 게시물 적합성 판단 방법에 있어서, a2) 상기 클라이언트(300)가 상기 서버(200)로 파일을 업로드 요청하는 단계(S301); b2) 상기 클라이언트(300)에 내장된 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 유해한 게시물인지의 여부를 판단하는 단계(S302); c2-1) 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 무해(S302-No)하다고 판단하면, 상기 서버(200)가 상기 업로드 요청된 파일을 저장하는 단계(S312); d2-1) 상기 서버(200)가 업로드 요청된 파일을 게시하는 단계(S313); 를 포함하여 이루어지는 것을 특징으로 한다.
또한 이 때, a2) 상기 클라이언트(300)가 상기 서버(200)로 파일을 업로드 요청하는 단계(S301); b2) 상기 클라이언트(300)에 내장된 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 유해한 게시물인지의 여부를 판단하는 단계(S302); c2-2) 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 유해하다고 판단(S302-Yes)하면, 상기 서버(200)가 상기 업로드 요청된 파일 게시를 거부하는 단계(S322); 를 포함하여 이루어지는 것을 특징으로 한다.
또한 이 때, a2) 상기 클라이언트(300)가 상기 서버(200)로 파일을 업로드 요청하는 단계(S301); b2) 상기 클라이언트(300)에 내장된 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 유해한 게시물인지의 여부를 판단하는 단계(S302); c2-3) 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 무해성 또는 유해성을 판단이 불가능하다고 판단(S203-Not Defined)하면, 상기 서버(200)가 상기 업로드 요청된 파일을 임시로 저장(S303)하고 임시로 게시하는 단계(S304); d2-3) 상기 임시로 게시된 파일이 내용 상 유해한 게시물인지 판단되는 단계(S305); e2-3) 상기 임시로 게시된 파일이 무해하다고 판단(S305-Yes)되면 상기 임시로 게시된 파일이 상기 필터링 모듈(100)에 무해 파일로 등록(S315)되고 정식으로 게시(S313)되거나, 또는 상기 임시로 게시된 파일이 유해하다고 판단(S305-Yes)되면 상기 임시로 게시된 파일이 상기 필터링 모듈(100)에 유해 파일로 등록(S325)되고 상기 서버(200)가 파일을 삭제하고 게시를 거부(S322)하는 단계; 를 포함하여 이루어지는 것을 특징으로 한다.
더불어, 상술한 바와 같은 웹 게시물 적합성 판단 방법에 있어서, 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 유해하다고 판단하는 단계(c1: S203, b2: S302)는, ㄱ1) 상기 판단 모듈(130)이 업로드 요청된 파일의 식별 정보를 추출하는 단계(S501); ㄴ1) 상기 판단 모듈(130)이 추출된 파일 식별 정보를 상기 블랙 리스트 데이터베이스(120)와 비교하는 단계(S502); ㄷ1-1) 상기 판단 모듈(130)에 의하여 상기 추출된 파일 식별 정보가 상기 블랙 리스트 데이터베이스(120)에 존재하지 않음이 판단(S502-No)되면, 상기 판단 모듈(130)이 상기 추출된 파일 식별 정 보를 상기 화이트 리스트 데이터베이스(110)와 비교하는 단계(S503); ㄹ1-1-2) 상기 판단 모듈(130)에 의하여 상기 추출된 파일 식별 정보가 상기 화이트 리스트 데이터베이스(110)에 존재하지 않음이 판단(S503-No)되면, 상기 판단 모듈(130)이 상기 업로드 요청된 파일을 그레이 리스트로 분류하는 단계(S504); 를 포함하여 이루어지는 것을 특징으로 한다.
또한 이 때, 상술한 바와 같은 웹 게시물 적합성 판단 방법에 있어서, 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 유해하다고 판단하는 단계(c1: S203, b2: S302)는, ㄱ1) 상기 판단 모듈(130)이 업로드 요청된 파일의 식별 정보를 추출하는 단계(S501); ㄴ1) 상기 판단 모듈(130)이 추출된 파일 식별 정보를 상기 블랙 리스트 데이터베이스(120)와 비교하는 단계(S502); ㄷ1-1) 상기 판단 모듈(130)에 의하여 상기 추출된 파일 식별 정보가 상기 블랙 리스트 데이터베이스(120)에 존재하지 않음이 판단(S502-No)되면, 상기 판단 모듈(130)이 상기 추출된 파일 식별 정보를 상기 화이트 리스트 데이터베이스(110)와 비교하는 단계(S503); ㄹ1-1-1) 상기 판단 모듈(130)에 의하여 상기 추출된 파일 식별 정보가 상기 화이트 리스트 데이터베이스(110)에 존재함이 판단(S503-Yes)되면, 상기 판단 모듈(130)이 상기 업로드 요청된 파일 게시를 요청하는 단계(S514); 를 포함하여 이루어지는 것을 특징으로 한다.
또한 이 때, 상술한 바와 같은 웹 게시물 적합성 판단 방법에 있어서, 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 유해하다고 판단하는 단계(c1: S203, b2: S302)는, ㄱ1) 상기 판단 모듈(130)이 업로드 요청된 파일의 식별 정보 를 추출하는 단계(S501); ㄴ1) 상기 판단 모듈(130)이 추출된 파일 식별 정보를 상기 블랙 리스트 데이터베이스(120)와 비교하는 단계(S502); ㄷ1-2) 상기 판단 모듈(130)에 의하여 상기 추출된 파일 식별 정보가 상기 블랙 리스트 데이터베이스(120)에 존재함이 판단(S502-Yes)되면, 상기 판단 모듈(130)이 상기 업로드 요청된 파일 게시 거부 또는 삭제를 요청하는 단계(S524); 를 포함하여 이루어지는 것을 특징으로 한다.
또는, 상술한 바와 같은 웹 게시물 적합성 판단 방법에 있어서, 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 유해하다고 판단하는 단계(c1: S203, b2: S302)는, ㄱ2) 상기 판단 모듈(130)이 업로드 요청된 파일의 식별 정보를 추출하는 단계(S601); ㄴ2) 상기 판단 모듈(130)이 추출된 파일 식별 정보를 상기 화이트 리스트 데이터베이스(110)과 비교하는 단계(S602); ㄷ2-1) 상기 판단 모듈(130)에 의하여 상기 추출된 파일 식별 정보가 상기 화이트 리스트 데이터베이스(110)에 존재하지 않음이 판단(S602-No)되면, 상기 판단 모듈(130)이 상기 추출된 파일 식별 정보를 상기 블랙 리스트 데이터베이스(120)와 비교하는 단계(S603); ㄹ2-1-2) 상기 판단 모듈(130)에 의하여 상기 추출된 파일 식별 정보가 상기 블랙 리스트 데이터베이스(120)에 존재하지 않음이 판단(S603-No)되면, 상기 판단 모듈(130)이 상기 업로드 요청된 파일을 그레이 리스트로 분류하는 단계(S604); 를 포함하여 이루어지는 것을 특징으로 한다.
또한 이 때, 상술한 바와 같은 웹 게시물 적합성 판단 방법에 있어서, 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 유해하다고 판단하는 단계(c1: S203, b2: S302)는, ㄱ2) 상기 판단 모듈(130)이 업로드 요청된 파일의 식별 정보를 추출하는 단계(S601); ㄴ2) 상기 판단 모듈(130)이 추출된 파일 식별 정보를 상기 화이트 리스트 데이터베이스(110)과 비교하는 단계(S602); ㄷ2-1) 상기 판단 모듈(130)에 의하여 상기 추출된 파일 식별 정보가 상기 화이트 리스트 데이터베이스(110)에 존재하지 않음이 판단(S602-No)되면, 상기 판단 모듈(130)이 상기 추출된 파일 식별 정보를 상기 블랙 리스트 데이터베이스(120)와 비교하는 단계(S603); ㄹ2-1-1) 상기 판단 모듈(130)에 의하여 상기 추출된 파일 식별 정보가 상기 블랙 리스트 데이터베이스(120)에 존재함이 판단(S603-Yes)되면, 상기 판단 모듈(130)이 상기 업로드 요청된 파일 게시 거부 또는 삭제를 요청하는 단계(S624); 를 포함하여 이루어지는 것을 특징으로 한다.
또한 이 때, 상술한 바와 같은 웹 게시물 적합성 판단 방법에 있어서, 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 유해하다고 판단하는 단계(c1: S203, b2: S302)는, ㄱ2) 상기 판단 모듈(130)이 업로드 요청된 파일의 식별 정보를 추출하는 단계(S601); ㄴ2) 상기 판단 모듈(130)이 추출된 파일 식별 정보를 상기 화이트 리스트 데이터베이스(110)과 비교하는 단계(S602); ㄷ2-2) 상기 판단 모듈(130)에 의하여 상기 추출된 파일 식별 정보가 상기 화이트 리스트 데이터베이스(110)에 존재함이 판단(S602-Yes)되면, 상기 판단 모듈(130)이 상기 업로드 요청된 파일 게시를 요청하는 단계(S614); 를 포함하여 이루어지는 것을 특징으로 한다.
더불어, 상기 식별 정보는 해당 파일의 해쉬 값인 것을 특징으로 한다. 이 때, 상기 해쉬 값은 파일 전체에 대한 해쉬 값이거나, 또는 파일 일부에 대한 해쉬 값인 것이 바람직하다.
본 발명에 의하면, 컴퓨터 또는 자동연산장치에서, 서버에 어떤 파일이 업로드되어 게시되기 전에 필터링 모듈을 통해 미리 검사됨으로써, 필터링 모듈의 블랙 리스트에 등록되어 있는 유해 정보가 1차적으로 필터링될 뿐만 아니라 화이트 리스트에 등록되어 있는 무해 정보는 판단 작업이 필요 없음이 표시되므로, 결과적으로 상기 두 리스트에 등록되어 있지 않은 파일들에 대해서만 내용 상의 유해성 판단 작업을 실시하면 되기 때문에, 내용 상의 유해성 판단 작업의 절대량을 감소시켜 주는 효과가 있으며, 웹 게시판 모니터링에 필요한 시간의 낭비가 크게 줄어들게 되는 효과 또한 있다. 또한 이러한 모니터링 작업에 의하여 자동적으로 화이트/블랙 리스트의 데이터베이스가 작성되기 때문에 데이터베이스 구축 자체가 효율적으로 이루어지게 되는 효과도 있다.
상기 효과는 또한, 유해성 여부의 2차 판단 시 내용 상의 유해성 자동 판단 프로그램을 사용하는 경우, 동일 시간 동안 상기 내용 상의 유해성 자동 판단 프로그램이 검토해야만 하는 파일의 양이 크게 줄어들기 때문에, 시스템 부하가 감소되고 상기 내용 상의 유해성 자동 판단 프로그램의 효율성도 크게 높아지게 되는 효과가 있다. 이에 따라 현재까지 효율 등의 문제로 실제 시스템에 적용하기 어려웠 던 내용 상의 유해성 자동 판단 프로그램을 실제 시스템에 적용하기 훨씬 용이해지게 되는 큰 효과가 있다.
물론, 본 발명에 의하면 웹 게시물의 적합성 판단 작업의 효율이 비약적으로 상승하게 되므로 종래에 비해 부적합한 게시물이 웹 상에 노출되는 빈도를 크게 줄일 수 있게 되는 자명한 효과가 있다. 더불어, 종래의 모니터링 방법에서 큰 변경 없이 본 발명의 모니터링 방법을 채용할 수 있기 때문에, 종래에 활용되는 인적 자원을 그대로 본 발명의 방법을 채용하는 시스템에 활용할 수 있으며, 이럴 경우에는 이에 따라 모니터링 요원으로서는 종래와 동일한 작업을 수행하되 절대적인 업무량이 감소되는 효과를 얻을 수 있다.
이하, 상기한 바와 같은 구성을 가지는 본 발명에 의한 화이트/블랙 리스트를 이용한 웹 게시물의 적합성 판단 방법 및 시스템을 첨부된 도면을 참고하여 상세하게 설명한다.
도 2는 본 발명의 첫 번째 실시예에 의한 웹 게시물 적합성 판단 방법의 작동 흐름도이다. 먼저, 클라이언트로부터 파일이 업로드(S201)되면, 서버가 파일을 저장(S202)하는 단계는 종래와 동일하다. 그러나 종래에는 이 다음 단계에서 서버가 파일을 게시한 후, 모니터링 요원 즉 인간의 힘으로 적합성 여부가 판단되었던 것과는 달리, 본 발명에서는 필터링 모듈에 의하여 자동으로 해당 파일의 유해성이 먼저 판단(S203)되고, 무해한 게시물로 판단(S203-No)되면 서버가 해당 파일을 게시(S213)하고, 유해한 게시물로 판단(S203-Yes)되면 서버가 해당 파일을 삭제하고 게시를 거부(S223)한다.
상기 필터링 모듈에는 무해 파일로 알려진 파일의 식별 가능한 정보(예를 들어 해쉬 값)를 저장하는 화이트 리스트 데이터베이스와, 유해 파일로 알려진 파일의 식별 가능한 정보(예를 들어 해쉬 값)를 저장하는 블랙 리스트 데이터베이스를 포함하여 이루어져 있다. 따라서 상기 필터링 모듈은 컴퓨터 또는 자동연산장치에서 미리 알려진 무해 파일 또는 유해 파일과 현재 업로드 요청된 파일을 비교함으로써 유해성 여부를 자동으로 판단할 수 있게 된다. 상기 필터링 모듈의 구성 및 동작에 관해서는 도 4 및 도 5의 설명에서 보다 상세히 설명한다.
이 때, 상기 필터링 모듈에 의하여 파일의 유해성이 판단(S203)됨에 있어서, 상술한 바와 같이 화이트 리스트 또는 블랙 리스트에 해당 파일의 식별 정보가 존재하지 않음으로써 무해성 또는 유해성이 결정되지 못하는 경우(S203-Not Defined), 해당 파일은 그레이 리스트로 분류되고 서버가 이를 임시로 게시(S204)하는데, 이와 같이 임시 게시(S204)된 후에는 내용 상의 유해성이 한 번 더 판단(S205)되는 과정을 거치게 된다. 즉, 정식 게시(S205)되는 파일과는 달리 임시 게시(S204)되는 파일은 내용 상의 유해성 판단 작업이 완료되기를 대기하고 있는 파일로서, 내용 상의 유해성 판단 작업 수행 시 상기 임시 게시(S204)된 파일들은 검사가 필요한 파일임이 표시되어 있게 되어, 정식 게시(S205)되는 파일과는 구분된다.
상술한 바와 같이 상기 필터링 모듈은 미리 무해/유해 여부가 알려져 있는 파일과 현재 업로드 요청된 파일을 비교함으로써 유해성 여부를 판단하지만, 그 유해성 정도가 미리 알려져 있지 않은 파일에 관해서는 이와 같은 유해성 여부 판단이 정확하게 이루어지지 않을 가능성이 있기 때문에, 2차적으로 해당 파일의 내용에 비추어 유해성 여부가 판단되는 것이다. 이와 같은 판단 과정은, 종래 기술 단락에서 설명한 바와 같이 현재까지 개발되어 나와 있는 내용 상의 유해성을 판단하는 프로그램을 이용하여 자동으로 수행되도록 하여도 무방하다.
이와 같이 내용 상의 유해성을 판단(S205)하여, 해당 파일이 내용 상 무해하다고 판단되면 필터링 모듈은 해당 파일을 무해 파일로 등록(S215)한 후 임시 게시되었던 해당 파일을 정식으로 게시(S213)하고, 또는 해당 파일이 내용 상 유해하다고 판단되면 필터링 모듈은 해당 파일을 유해 파일로 등록(S225)하고 해당 파일을 삭제 및 게시 거부(S223)한다.
이와 같은 방법으로, 서버에 어떤 파일이 업로드되어 게시되기 전에 필터링 모듈을 통해 미리 검사를 함으로써, 이미 알려진(즉 필터링 모듈에 미리 등록되어 있는) 유해 정보가 1차적으로 필터링되어 동일한 무해 자료가 여러 번 다시 검사되어야 하거나 동일한 유해 자료가 여러 번 삭제되어야만 하는 종래의 불편함이 크게 해소되게 된다. 실제로 대부분의 공개적인 게시판에서, 음란ㆍ폭력ㆍ저작권 침해 자료와 같은 유해 정보가 게시되는 빈도는 그렇게 높지 않으며, 실질적으로는 무해 정보가 대부분이다. 그런데 종래에는 게시판의 모든 파일들을 일일이 검사하여야만 하였기 때문에, 이미 무해 정보인 것이 밝혀진 파일들을 반복해서 게시될 때마다 다시 검사하여야만 했기 때문에 큰 불편함이 있었다. 그런데 본 발명에 의하면, 무해 정보임이 밝혀진 파일들에 대해서는 아예 검사 작업을 요하지 않기 때문에, 상술한 바와 같이 게시판의 대부분을 차지하는 수많은 무해 정보들에 대해서는 검사 작업을 생략할 수 있도록 해 준다. 또한 본 발명에 의하면, 유해 정보로 밝혀진 파일들은 미리 원천적으로 아예 게시가 이루어지지도 못하게 한다. 따라서 내용 상의 유해성을 판단하는 검사 작업은, 서버에 저장되어 있는 파일들 중에서 검사 작업이 필요 없는 파일들(무해 정보임이 밝혀진 파일들)을 제외한 나머지 파일들에 대해서만 수행하면 되므로, 절대적인 작업량이 크게 줄어들게 되는 것이다.
만일 내용 상의 유해성 자동 판단 프로그램을 사용하는 경우라면, 상술한 바와 같이 상기 내용 상의 유해성 자동 판단 프로그램이 검토해야만 하는 파일의 양이 크게 줄어들기 때문에, 시스템 부하가 감소되고 상기 내용 상의 유해성 자동 판단 프로그램의 효율성도 크게 높아지게 되어, 현재까지 효율, 시간 등의 문제로 실제 시스템에 적용하기 어려웠던 내용 상의 유해성 자동 판단 프로그램을 실제 시스템에 적용하기 훨씬 용이해지게 된다.
도 3은 본 발명의 두 번째 실시예에 의한 웹 게시물 적합성 판단 방법의 작동 흐름도이다. 도 2에 도시된 첫 번째 실시예와 거의 동일하지만, 두 번째 실시예에서는, 첫 번째 실시예에서와는 달리 필터링 모듈이 클라이언트에 구비되어 있으며, 따라서 유해 게시물 판단이 서버 단에서 이루어지는 첫 번째 실시예와는 달리 유해 게시물 판단이 클라이언트 단에서 이루어진다. 즉, 먼저 클라이언트로부터 파 일 업로드(S301)가 시작되면, 첫 번째 실시예에서는 서버에 먼저 파일이 저장(S202)된 뒤 필터링 모듈이 해당 파일의 유해성을 판단(S203)하였던 것과는 달리, 두 번째 실시예에서는 먼저 필터링 모듈이 해당 게시물이 유해 정보를 담고 있는지를 판단(S302)하고, 해당 파일이 유해하다고 판정(S302-Yes)되면 서버에서는 곧바로 해당 파일의 게시를 거부(S322)한다. 즉, 두 번째 실시예에서는 필터링 모듈에 의하여 유해하다고 판정된 파일은 서버에 아예 업로드되지도 않게 된다. 물론, 해당 파일이 무해하다고 판단(S302-No)되면, 해당 파일이 서버에 저장(S312)된 후 게시(S313)된다.
첫 번째 실시예에서와 마찬가지로, 해당 파일의 식별 정보가 화이트 리스트 및 블랙 리스트 둘 다에 존재하지 않아 판단이 되지 않는 경우(S302-Not Defined), 해당 파일은 역시 그레이 리스트로 분류되어 서버에 임시로 저장(S303) 및 임시 게시(S304)된다. 이후 내용 상의 유해성이 판단(S305)되어 무해하다는 것이 최종 판정되면 필터링 모듈에 해당 파일이 무해 파일로 등록(S315)되고 정식으로 게시(S313)된다. 또는, 이 단계에서 해당 파일이 유해하다고 판정되면 필터링 모듈에 해당 파일이 유해 파일로 등록(S325)된 후 해당 게시물이 삭제 및 게시 거부(S322)된다.
도 4는 본 발명의 필터링 모듈의 시스템도이며, 도 5는 상기 필터링 모듈의 작동 흐름도이다. 도 4에 도시된 바와 같이, 필터링 모듈(100)은 화이트 리스트 데이터베이스(110), 블랙 리스트 데이터베이스(120) 및 판단 모듈(130)로 이루어지 며, 웹 게시판의 서버(200) 및 해당 게시판을 이용하는 클라이언트(300)와 연결되어 있다. 상기 화이트 리스트 데이터베이스(110)에는 무해한 파일에 대한 정보가 저장되며, 상기 블랙 리스트 데이터베이스(120)에는 유해한 파일에 대한 정보가 저장된다. 도 2에서 설명한 첫 번째 실시예의 경우 상기 판단 모듈(130)은 상기 서버(200)와 직접 연결 또는 내장되되 상기 클라이언트(300)와는 인터넷을 통해 연결되어 구비되며, 도 3에서 설명한 두 번째 실시예의 경우 상기 판단 모듈(130)은 상기 클라이언트(300)에 내장되되 상기 서버(200)와는 인터넷을 통해 연결되어 구비된다. 물론, 상기 판단 모듈(130)이 실제로 서버(200) 단에 구비되든 또는 클라이언트(300) 단에 구비되든, 상기 화이트 리스트 데이터베이스(110) 및 블랙 리스트 데이터베이스(120)에 저장되는 무해/유해 파일의 식별 정보는 상기 서버(200) 및 모든 클라이언트(300)에서 공유되도록 하여도 무방하다. 이 때, 상기 판단 모듈(130)이 상기 서버(200) 단에 구비되는 경우에는 물론 상기 화이트 리스트 데이터베이스(110) 및 블랙 리스트 데이터베이스(120)는 당연히 자동으로 공유되게 된다. 또는 상기 판단 모듈(130)이 상기 클라이언트(300) 단에 구비되는 경우에는 상기 클라이언트(300) 각각에 구비된 판단 모듈(130)이 정기적으로 화이트 리스트 데이터베이스(110) 및 블랙 리스트 데이터베이스(120)의 정보를 상기 서버(200) 쪽으로 보내어 업데이트하고 해당 업데이트된 정보를 상기 서버(200)가 역시 정기적으로 각각의 클라이언트(300)로 보내 주어 업데이트시켜 줌으로써 화이트 리스트 데이터베이스(110) 및 블랙 리스트 데이터베이스(120)를 공유할 수도 있다. 또는 상기 판단 모듈(130)이 상기 클라이언트(300) 단에 구비될 경우 각각의 클라이언 트(300)마다 독립된 화이트 리스트 데이터베이스(110) 및 블랙 리스트 데이터베이스(120)를 보유하고 각자 독립적으로 업데이트하도록 하여도 무방하다. 물론, 상술한 내용이 본 발명을 한정하는 것은 아니며 하나의 예시일 뿐으로, 본 발명의 취지를 벗어나지 않는 범위 내에서 상기 화이트 리스트 데이터베이스(110) 및 블랙 리스트 데이터베이스(120)의 업데이트 방법은 얼마든지 다양하게 설계될 수 있다.
상기 판단 모듈(130)은, 도 5에 도시된 바와 같이 먼저 상기 클라이언트(300)로부터 상기 서버(200)로 업로드되는 파일에 대하여 해당 파일의 식별 정보를 추출(S501)한다. 물론, 상술한 바와 같이 첫 번째 실시예의 경우 상기 필터링 모듈(100)이 상기 서버(200) 단에 위치하고 있으므로 상기 서버(200)로 일단 업로드되어 저장된 파일에 대하여 식별 정보를 추출하며, 두 번째 실시예의 경우 상기 필터링 모듈(100)이 상기 클라이언트(300) 단에 위치하고 있으므로 상기 클라이언트(300)가 업로드 명령을 받고 상기 서버(200)로 업로드하기 전 단계에서 업로드 명령을 받은 파일에 대하여 식별 정보를 추출하게 된다. 이 때 상기 식별 정보는 해쉬 값이 되는 것이 바람직한데, 보다 상세히 설명하자면, 일방향 해쉬 기술을 이용하여, 파일 전체의 일방향 해쉬 값을 추출하거나, 또는 파일 일부의 일방향 해쉬 값을 추출하여 이를 식별 정보로 하는 것이 바람직하다. 물론 식별 정보 추출 작업 자체 및 이후의 비교 판단 작업에 있어서 작업 시간을 줄이기 위해 파일 일부, 예를 들어 파일 앞부분의 일정 영역만을 샘플링하여 해쉬 값을 추출하게 하는 것이 더욱 바람직하다.
상기 판단 모듈(130)은, 상기 추출된 파일의 식별 정보(예를 들어 해쉬 값) 를 블랙 리스트 데이터베이스(120)와 먼저 비교하여 판단(S502)한다. 해당 파일의 식별 정보(예를 들어 해쉬 값)가 블랙 리스트 데이터베이스(120)에 존재하면, 상기 판단 모듈(130)은 해당 파일이 유해한 것으로 판단(S502-Yes)하고 파일이 게시 거부 또는 삭제(S524)되도록 한다. 이 때, 상기 파일 게시 거부 단계(S524)는, 첫 번째 실시예의 경우 상기 서버(200)에 저장된 파일을 상기 서버(200)가 웹 게시판에 게시하지 않고 바로 삭제하는 단계(S223)가 되며, 두 번째 실시예의 경우 상기 클라이언트(300)가 검사가 끝난 파일의 전송을 거부하는 단계(S322)가 되는 것이 적절하다.
만일 상기 판단 모듈(130)에 의하여 해당 파일이 블랙 리스트 데이터베이스(120)에 존재하지 않음이 확인(S502-No)되면, 상기 판단 모듈(130)은 해당 파일의 식별 정보(예를 들어 해쉬 값)를 화이트 리스트 데이터베이스(110)와 비교하여 판단(S503)한다. 만일 해당 파일의 식별 정보(예를 들어 해쉬 값)가 화이트 리스트 데이터베이스(110)에 존재하는 값이라고 판단(S503-Yes)되면, 상기 판단 모듈(130)은 해당 파일을 게시(S514)하도록 한다. 그러나 해당 파일의 식별 정보(예를 들어 해쉬 값)가 화이트 리스트 데이터베이스(110)에 존재하지 않으면(S503-No), 상기 판단 모듈(130)은 해당 파일을 그레이 리스트로 분류한다(S504).
물론, 파일이 게시되는 상기 단계(S514)는 상기 파일 게시 단계(S524)와 마찬가지로, 첫 번째 실시예의 경우 상기 서버(200)에 저장된 파일을 상기 서버(200)가 웹 게시판에 공개하여 게시하는 단계(S213)가 되며, 두 번째 실시예의 경우 검사가 끝나 무해성이 증명된 파일을 상기 클라이언트(300)가 상기 서버(200)로 전송 하여 저장(S312)하는 단계가 되는 것이 적절하다.
또한, 상기 그레이 리스트 분류 단계(S504)는, 첫 번째 실시예의 경우 상기 서버(200)가 임시로 파일을 게시하는 단계(S204)가 되며, 두 번째 실시예의 경우, 해당 파일을 상기 클라이언트(300)가 상기 서버(200)로 임시 전송하여 저장(S303)하는 단계가 되는 것이 적절하다.
도 6은 상기 판단 모듈(130)의 작동 단계의 다른 실시예이다. 도 5에서와 동일한 판단 단계를 거치나, 다만 도 5의 실시예에서는 상기 업로드 요청된 파일을 상기 블랙 리스트 데이터베이스(120)와 먼저 비교하고 나중에 상기 화이트 리스트 데이터베이스(110)와 비교하나, 도 6의 실시예에서는 그와 반대로 상기 업로드 요청된 파일을 상기 화이트 리스트 데이터베이스(110)와 먼저 비교하고 나중에 상기 블랙 리스트 데이터베이스(120)와 비교한다는 점이 다르다.
본 발명은 상기한 실시예에 한정되지 아니하며, 적용범위가 다양함은 물론이고, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이다.
도 1은 종래의 웹 게시물 적합성 판단 방법의 작동 흐름도.
도 2는 본 발명의 첫 번째 실시예에 의한 웹 게시물 적합성 판단 방법의 작동 흐름도.
도 3은 본 발명의 두 번째 실시예에 의한 웹 게시물 적합성 판단 방법의 작동 흐름도.
도 4는 본 발명의 필터링 모듈의 시스템도.
도 5는 본 발명의 필터링 모듈의 작동 흐름도의 한 실시예.
도 5는 본 발명의 필터링 모듈의 작동 흐름도의 다른 실시예.
**도면의 주요부분에 대한 부호의 설명**
100: 필터링 모듈
110: 화이트 리스트 데이터베이스
120: 블랙 리스트 데이터베이스
130: 판단 모듈
200: 서버
300: 클라이언트

Claims (19)

  1. 웹 게시판을 운영 및 제어하는 서버(200);
    상기 서버(200)와 연결되는 클라이언트(300); 및
    상기 서버(200) 및 클라이언트(300)와 연결되며,
    무해 파일의 식별 정보를 저장하는 화이트 리스트 데이터베이스(110), 유해 파일의 식별 정보를 저장하는 블랙 리스트 데이터베이스(120) 및 웹 게시판에 업로드 요청된 파일에 대하여 해당 파일의 식별 정보와 상기 화이트 리스트 데이터베이스(110) 및 상기 블랙 리스트 데이터베이스(120)를 비교하여 해당 파일의 유해성을 판단하는 판단 모듈(130)을 포함하여 이루어지는 필터링 모듈(100);
    을 포함하여 이루어지며, 상기 필터링 모듈(100)에 의하여 검사되는 파일의 종류는 텍스트, 이미지, 오디오 및 비디오 형태 중 선택되는 어느 한 가지 이상을 포함하는 것을 특징으로 하는 화이트/블랙 리스트를 이용한 웹 게시물의 적합성 판단 시스템.
  2. 제 1항에 있어서, 상기 판단 모듈(130)은
    상기 서버(200) 단에 직접 연결 또는 내장되어 구비되거나, 또는 상기 클라이언트(300) 단에 내장되는 것을 특징으로 하는 화이트/블랙 리스트를 이용한 웹 게시물의 적합성 판단 시스템.
  3. 제 1항에 있어서, 상기 식별 정보는
    해당 파일의 해쉬 값인 것을 특징으로 하는 화이트/블랙 리스트를 이용한 웹 게시물의 적합성 판단 시스템.
  4. 제 3항에 있어서, 상기 해쉬 값은
    파일 전체에 대한 해쉬 값이거나, 또는 파일 일부에 대한 해쉬 값인 것을 특징으로 하는 화이트/블랙 리스트를 이용한 웹 게시물의 적합성 판단 시스템.
  5. 제 1항에 있어서, 상기 화이트 리스트 데이터베이스(110) 및 상기 블랙 리스트 데이터베이스(120)는
    상기 판단 모듈(130)이 상기 서버(200) 단 또는 상기 클라이언트(300) 단에 구비되어 상기 서버(200) 및 다수 개의 상기 클라이언트(300)에서 공유되어 운용되거나,
    또는 상기 판단 모듈(130)이 상기 클라이언트(300) 단에 구비되어 각각의 상기 클라이언트(300)에서 독립적으로 운용되는 것을 특징으로 하는 화이트/블랙 리스트를 이용한 웹 게시물의 적합성 판단 시스템.
  6. 제 2항의 시스템에 의한 웹 게시물 적합성 판단 방법에 있어서,
    a1) 상기 클라이언트(300)가 상기 서버(200)로 파일을 업로드하는 단계(S201);
    b1) 상기 서버(200)가 업로드 요청된 파일을 저장하는 단계(S202);
    c1) 상기 서버(200)에 직접 연결 또는 내장된 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 유해한 게시물인지의 여부를 판단하는 단계(S203);
    d1-1) 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 무해하다고 판단(S203-No)하면, 상기 서버(200)가 상기 업로드 요청된 파일을 게시하는 단계(S213);
    를 포함하여 이루어지는 것을 특징으로 하는 화이트/블랙 리스트를 이용한 웹 게시물의 적합성 판단 방법.
  7. 제 2항의 시스템에 의한 웹 게시물 적합성 판단 방법에 있어서,
    a1) 상기 클라이언트(300)가 상기 서버(200)로 파일을 업로드하는 단계(S201);
    b1) 상기 서버(200)가 업로드 요청된 파일을 저장하는 단계(S202);
    c1) 상기 서버(200)에 직접 연결 또는 내장된 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 유해한 게시물인지의 여부를 판단하는 단계(S203);
    d1-2) 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 유해하다고 판단(S203-Yes)하면, 상기 서버(200)가 상기 업로드 요청된 파일을 삭제하고 게시를 거부하는 단계(S223);
    를 포함하여 이루어지는 것을 특징으로 하는 화이트/블랙 리스트를 이용한 웹 게시물의 적합성 판단 방법.
  8. 제 2항의 시스템에 의한 웹 게시물 적합성 판단 방법에 있어서,
    a1) 상기 클라이언트(300)가 상기 서버(200)로 파일을 업로드하는 단계(S201);
    b1) 상기 서버(200)가 업로드 요청된 파일을 저장하는 단계(S202);
    c1) 상기 서버(200)에 직접 연결 또는 내장된 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 유해한 게시물인지의 여부를 판단하는 단계(S203);
    d1-3) 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 무해성 또는 유해성을 판단이 불가능하다고 판단(S203-Not Defined)하면, 상기 서버(200)가 상기 업로드 요청된 파일을 임시로 게시하는 단계(S223);
    e1-3) 상기 임시로 게시된 파일이 내용 상 유해한 게시물인지 판단되는 단계(S205);
    f1-3) 상기 임시로 게시된 파일이 무해하다고 판단(S205-Yes)되면 상기 임시 로 게시된 파일이 상기 필터링 모듈(100)에 무해 파일로 등록(S215)되고 정식으로 게시(S213)되거나,
    또는 상기 임시로 게시된 파일이 유해하다고 판단(S205-Yes)되면 상기 임시로 게시된 파일이 상기 필터링 모듈(100)에 유해 파일로 등록(S225)되고 상기 서버(200)가 파일을 삭제(S223)하는 단계;
    를 포함하여 이루어지는 것을 특징으로 하는 화이트/블랙 리스트를 이용한 웹 게시물의 적합성 판단 방법.
  9. 제 2항의 시스템에 의한 웹 게시물 적합성 판단 방법에 있어서,
    a2) 상기 클라이언트(300)가 상기 서버(200)로 파일을 업로드 요청하는 단계(S301);
    b2) 상기 클라이언트(300)에 내장된 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 유해한 게시물인지의 여부를 판단하는 단계(S302);
    c2-1) 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 무해(S302-No)하다고 판단하면, 상기 서버(200)가 상기 업로드 요청된 파일을 저장하는 단계(S312);
    d2-1) 상기 서버(200)가 업로드 요청된 파일을 게시하는 단계(S313);
    를 포함하여 이루어지는 것을 특징으로 하는 화이트/블랙 리스트를 이용한 웹 게시물의 적합성 판단 방법.
  10. 제 2항의 시스템에 의한 웹 게시물 적합성 판단 방법에 있어서,
    a2) 상기 클라이언트(300)가 상기 서버(200)로 파일을 업로드 요청하는 단계(S301);
    b2) 상기 클라이언트(300)에 내장된 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 유해한 게시물인지의 여부를 판단하는 단계(S302);
    c2-2) 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 유해하다고 판단(S302-Yes)하면, 상기 서버(200)가 상기 업로드 요청된 파일 게시를 거부하는 단계(S322);
    를 포함하여 이루어지는 것을 특징으로 하는 화이트/블랙 리스트를 이용한 웹 게시물의 적합성 판단 방법.
  11. 제 2항의 시스템에 의한 웹 게시물 적합성 판단 방법에 있어서,
    a2) 상기 클라이언트(300)가 상기 서버(200)로 파일을 업로드 요청하는 단계(S301);
    b2) 상기 클라이언트(300)에 내장된 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 유해한 게시물인지의 여부를 판단하는 단계(S302);
    c2-3) 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 무해성 또는 유 해성을 판단이 불가능하다고 판단(S203-Not Defined)하면, 상기 서버(200)가 상기 업로드 요청된 파일을 임시로 저장(S303)하고 임시로 게시하는 단계(S304);
    d2-3) 상기 임시로 게시된 파일이 내용 상 유해한 게시물인지 판단되는 단계(S305);
    e2-3) 상기 임시로 게시된 파일이 무해하다고 판단(S305-Yes)되면 상기 임시로 게시된 파일이 상기 필터링 모듈(100)에 무해 파일로 등록(S315)되고 정식으로 게시(S313)되거나,
    또는 상기 임시로 게시된 파일이 유해하다고 판단(S305-Yes)되면 상기 임시로 게시된 파일이 상기 필터링 모듈(100)에 유해 파일로 등록(S325)되고 상기 서버(200)가 파일을 삭제하고 게시를 거부(S322)하는 단계;
    를 포함하여 이루어지는 것을 특징으로 하는 화이트/블랙 리스트를 이용한 웹 게시물의 적합성 판단 방법.
  12. 제 6항 내지 제 11항 중 선택되는 어느 한 항에 있어서, 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 유해하다고 판단하는 단계(c1: S203, b2: S302)는,
    ㄱ1) 상기 판단 모듈(130)이 업로드 요청된 파일의 식별 정보를 추출하는 단계(S501);
    ㄴ1) 상기 판단 모듈(130)이 추출된 파일 식별 정보를 상기 블랙 리스트 데 이터베이스(120)와 비교하는 단계(S502);
    ㄷ1-1) 상기 판단 모듈(130)에 의하여 상기 추출된 파일 식별 정보가 상기 블랙 리스트 데이터베이스(120)에 존재하지 않음이 판단(S502-No)되면, 상기 판단 모듈(130)이 상기 추출된 파일 식별 정보를 상기 화이트 리스트 데이터베이스(110)와 비교하는 단계(S503);
    ㄹ1-1-2) 상기 판단 모듈(130)에 의하여 상기 추출된 파일 식별 정보가 상기 화이트 리스트 데이터베이스(110)에 존재하지 않음이 판단(S503-No)되면, 상기 판단 모듈(130)이 상기 업로드 요청된 파일을 그레이 리스트로 분류하는 단계(S504);
    를 포함하여 이루어지는 것을 특징으로 하는 화이트/블랙 리스트를 이용한 웹 게시물의 적합성 판단 방법.
  13. 제 6항 내지 제 11항 중 선택되는 어느 한 항에 있어서, 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 유해하다고 판단하는 단계(c1: S203, b2: S302)는,
    ㄱ1) 상기 판단 모듈(130)이 업로드 요청된 파일의 식별 정보를 추출하는 단계(S501);
    ㄴ1) 상기 판단 모듈(130)이 추출된 파일 식별 정보를 상기 블랙 리스트 데이터베이스(120)와 비교하는 단계(S502);
    ㄷ1-1) 상기 판단 모듈(130)에 의하여 상기 추출된 파일 식별 정보가 상기 블랙 리스트 데이터베이스(120)에 존재하지 않음이 판단(S502-No)되면, 상기 판단 모듈(130)이 상기 추출된 파일 식별 정보를 상기 화이트 리스트 데이터베이스(110)와 비교하는 단계(S503);
    ㄹ1-1-1) 상기 판단 모듈(130)에 의하여 상기 추출된 파일 식별 정보가 상기 화이트 리스트 데이터베이스(110)에 존재함이 판단(S503-Yes)되면, 상기 판단 모듈(130)이 상기 업로드 요청된 파일 게시를 요청하는 단계(S514);
    를 포함하여 이루어지는 것을 특징으로 하는 화이트/블랙 리스트를 이용한 웹 게시물의 적합성 판단 방법.
  14. 제 6항 내지 제 11항 중 선택되는 어느 한 항에 있어서, 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 유해하다고 판단하는 단계(c1: S203, b2: S302)는,
    ㄱ1) 상기 판단 모듈(130)이 업로드 요청된 파일의 식별 정보를 추출하는 단계(S501);
    ㄴ1) 상기 판단 모듈(130)이 추출된 파일 식별 정보를 상기 블랙 리스트 데이터베이스(120)와 비교하는 단계(S502);
    ㄷ1-2) 상기 판단 모듈(130)에 의하여 상기 추출된 파일 식별 정보가 상기 블랙 리스트 데이터베이스(120)에 존재함이 판단(S502-Yes)되면, 상기 판단 모듈(130)이 상기 업로드 요청된 파일 게시 거부 또는 삭제를 요청하는 단계(S524);
    를 포함하여 이루어지는 것을 특징으로 하는 화이트/블랙 리스트를 이용한 웹 게시물의 적합성 판단 방법.
  15. 제 6항 내지 제 11항 중 선택되는 어느 한 항에 있어서, 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 유해하다고 판단하는 단계(c1: S203, b2: S302)는,
    ㄱ2) 상기 판단 모듈(130)이 업로드 요청된 파일의 식별 정보를 추출하는 단계(S601);
    ㄴ2) 상기 판단 모듈(130)이 추출된 파일 식별 정보를 상기 화이트 리스트 데이터베이스(110)과 비교하는 단계(S602);
    ㄷ2-1) 상기 판단 모듈(130)에 의하여 상기 추출된 파일 식별 정보가 상기 화이트 리스트 데이터베이스(110)에 존재하지 않음이 판단(S602-No)되면, 상기 판단 모듈(130)이 상기 추출된 파일 식별 정보를 상기 블랙 리스트 데이터베이스(120)와 비교하는 단계(S603);
    ㄹ2-1-2) 상기 판단 모듈(130)에 의하여 상기 추출된 파일 식별 정보가 상기 블랙 리스트 데이터베이스(120)에 존재하지 않음이 판단(S603-No)되면, 상기 판단 모듈(130)이 상기 업로드 요청된 파일을 그레이 리스트로 분류하는 단계(S604);
    를 포함하여 이루어지는 것을 특징으로 하는 화이트/블랙 리스트를 이용한 웹 게시물의 적합성 판단 방법.
  16. 제 6항 내지 제 11항 중 선택되는 어느 한 항에 있어서, 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 유해하다고 판단하는 단계(c1: S203, b2: S302)는,
    ㄱ2) 상기 판단 모듈(130)이 업로드 요청된 파일의 식별 정보를 추출하는 단계(S601);
    ㄴ2) 상기 판단 모듈(130)이 추출된 파일 식별 정보를 상기 화이트 리스트 데이터베이스(110)과 비교하는 단계(S602);
    ㄷ2-1) 상기 판단 모듈(130)에 의하여 상기 추출된 파일 식별 정보가 상기 화이트 리스트 데이터베이스(110)에 존재하지 않음이 판단(S602-No)되면, 상기 판단 모듈(130)이 상기 추출된 파일 식별 정보를 상기 블랙 리스트 데이터베이스(120)와 비교하는 단계(S603);
    ㄹ2-1-1) 상기 판단 모듈(130)에 의하여 상기 추출된 파일 식별 정보가 상기 블랙 리스트 데이터베이스(120)에 존재함이 판단(S603-Yes)되면, 상기 판단 모듈(130)이 상기 업로드 요청된 파일 게시 거부 또는 삭제를 요청하는 단계(S624);
    를 포함하여 이루어지는 것을 특징으로 하는 화이트/블랙 리스트를 이용한 웹 게시물의 적합성 판단 방법.
  17. 제 6항 내지 제 11항 중 선택되는 어느 한 항에 있어서, 상기 필터링 모듈(100)이 상기 업로드 요청된 파일이 유해하다고 판단하는 단계(c1: S203, b2: S302)는,
    ㄱ2) 상기 판단 모듈(130)이 업로드 요청된 파일의 식별 정보를 추출하는 단계(S601);
    ㄴ2) 상기 판단 모듈(130)이 추출된 파일 식별 정보를 상기 화이트 리스트 데이터베이스(110)과 비교하는 단계(S602);
    ㄷ2-2) 상기 판단 모듈(130)에 의하여 상기 추출된 파일 식별 정보가 상기 화이트 리스트 데이터베이스(110)에 존재함이 판단(S602-Yes)되면, 상기 판단 모듈(130)이 상기 업로드 요청된 파일 게시를 요청하는 단계(S614);
    를 포함하여 이루어지는 것을 특징으로 하는 화이트/블랙 리스트를 이용한 웹 게시물의 적합성 판단 방법.
  18. 제 6항 내지 제 11항 중 선택되는 어느 한 항에 있어서, 상기 식별 정보는
    해당 파일의 해쉬 값인 것을 특징으로 하는 화이트/블랙 리스트를 이용한 웹 게시물의 적합성 판단 방법.
  19. 제 18항에 있어서, 상기 해쉬 값은
    파일 전체에 대한 해쉬 값이거나, 또는 파일 일부에 대한 해쉬 값인 것을 특징으로 하는 화이트/블랙 리스트를 이용한 웹 게시물의 적합성 판단 방법.
KR1020080066576A 2008-07-09 2008-07-09 화이트/블랙 리스트를 이용한 웹 게시물의 적합성 판단방법 및 시스템 KR20100006371A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080066576A KR20100006371A (ko) 2008-07-09 2008-07-09 화이트/블랙 리스트를 이용한 웹 게시물의 적합성 판단방법 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080066576A KR20100006371A (ko) 2008-07-09 2008-07-09 화이트/블랙 리스트를 이용한 웹 게시물의 적합성 판단방법 및 시스템

Publications (1)

Publication Number Publication Date
KR20100006371A true KR20100006371A (ko) 2010-01-19

Family

ID=41815549

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080066576A KR20100006371A (ko) 2008-07-09 2008-07-09 화이트/블랙 리스트를 이용한 웹 게시물의 적합성 판단방법 및 시스템

Country Status (1)

Country Link
KR (1) KR20100006371A (ko)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101523934B1 (ko) * 2012-09-14 2015-06-10 한국전자통신연구원 실시간 공격 근원지 및 유포지 추적을 위한 파일 다중 분석 장치 및 방법
CN110163663A (zh) * 2014-06-13 2019-08-23 快照公司 基于地理位置的事件画廊
CN110502877A (zh) * 2019-07-04 2019-11-26 天脉聚源(杭州)传媒科技有限公司 基于名单的作品数据处理方法、系统、装置和存储介质
WO2020040341A1 (ko) * 2018-08-24 2020-02-27 대구대학교 산학협력단 마케팅 효과 제고를 위한 해시태그 교정 서비스 방법 및 이를 위한 시스템
KR20200025816A (ko) * 2018-08-31 2020-03-10 대구대학교 산학협력단 마케팅 효과 제고를 위한 해시태그 교정 서비스 방법 및 이를 위한 시스템
KR102448188B1 (ko) * 2022-05-06 2022-09-28 (주)지란지교시큐리티 웹 격리 기술 기반의 메일 보안 시스템 및 메일 보안 서비스 제공 방법
US11558678B2 (en) 2017-03-27 2023-01-17 Snap Inc. Generating a stitched data stream
KR20230059015A (ko) * 2021-10-25 2023-05-03 주식회사 투링크 유해 사이트 차단 시스템 및 그 방법
US11741136B2 (en) 2014-09-18 2023-08-29 Snap Inc. Geolocation-based pictographs
US11783862B2 (en) 2014-12-19 2023-10-10 Snap Inc. Routing messages by message parameter
US11803345B2 (en) 2014-12-19 2023-10-31 Snap Inc. Gallery of messages from individuals with a shared interest
US11830117B2 (en) 2015-12-18 2023-11-28 Snap Inc Media overlay publication system
US11902287B2 (en) 2015-03-18 2024-02-13 Snap Inc. Geo-fence authorization provisioning
US12231437B2 (en) 2023-11-28 2025-02-18 Snap Inc. Geo-fence authorization provisioning

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101523934B1 (ko) * 2012-09-14 2015-06-10 한국전자통신연구원 실시간 공격 근원지 및 유포지 추적을 위한 파일 다중 분석 장치 및 방법
CN110163663A (zh) * 2014-06-13 2019-08-23 快照公司 基于地理位置的事件画廊
US11166121B2 (en) 2014-06-13 2021-11-02 Snap Inc. Prioritization of messages within a message collection
US11317240B2 (en) 2014-06-13 2022-04-26 Snap Inc. Geo-location based event gallery
US11741136B2 (en) 2014-09-18 2023-08-29 Snap Inc. Geolocation-based pictographs
US11803345B2 (en) 2014-12-19 2023-10-31 Snap Inc. Gallery of messages from individuals with a shared interest
US11783862B2 (en) 2014-12-19 2023-10-10 Snap Inc. Routing messages by message parameter
US11902287B2 (en) 2015-03-18 2024-02-13 Snap Inc. Geo-fence authorization provisioning
US11830117B2 (en) 2015-12-18 2023-11-28 Snap Inc Media overlay publication system
US11558678B2 (en) 2017-03-27 2023-01-17 Snap Inc. Generating a stitched data stream
WO2020040341A1 (ko) * 2018-08-24 2020-02-27 대구대학교 산학협력단 마케팅 효과 제고를 위한 해시태그 교정 서비스 방법 및 이를 위한 시스템
KR20200025816A (ko) * 2018-08-31 2020-03-10 대구대학교 산학협력단 마케팅 효과 제고를 위한 해시태그 교정 서비스 방법 및 이를 위한 시스템
CN110502877B (zh) * 2019-07-04 2020-06-26 天脉聚源(杭州)传媒科技有限公司 基于名单的作品数据处理方法、系统、装置和存储介质
CN110502877A (zh) * 2019-07-04 2019-11-26 天脉聚源(杭州)传媒科技有限公司 基于名单的作品数据处理方法、系统、装置和存储介质
KR20230059015A (ko) * 2021-10-25 2023-05-03 주식회사 투링크 유해 사이트 차단 시스템 및 그 방법
KR102448188B1 (ko) * 2022-05-06 2022-09-28 (주)지란지교시큐리티 웹 격리 기술 기반의 메일 보안 시스템 및 메일 보안 서비스 제공 방법
US12236148B2 (en) 2023-09-08 2025-02-25 Snap Inc. Gallery of messages from individuals with a shared interest
US12231437B2 (en) 2023-11-28 2025-02-18 Snap Inc. Geo-fence authorization provisioning

Similar Documents

Publication Publication Date Title
KR20100006371A (ko) 화이트/블랙 리스트를 이용한 웹 게시물의 적합성 판단방법 및 시스템
CN112567407B (zh) 电子邮件的隐私保护标记和分类
CN106295333B (zh) 用于检测恶意代码的方法和系统
US8230497B2 (en) Method of identifying software vulnerabilities on a computer system
US9300686B2 (en) System and method for detecting malicious links in electronic messages
US20120183174A1 (en) System, method, and computer program product for preventing image-related data loss
CN108347374B (zh) 一种阻止非法消息的消息推送方法及装置
US9298824B1 (en) Focused crawling to identify potentially malicious sites using Bayesian URL classification and adaptive priority calculation
CN104246785A (zh) 用于移动应用声誉的众包的系统和方法
TW201640384A (zh) 用於決定由檔案為基礎之內容所構成的風險之統計分析方法
CN102741839A (zh) 基于用户浏览器历史的url过滤
US20240039948A1 (en) Mail protection system
US12111941B2 (en) Dynamically controlling access to linked content in electronic communications
RU2676247C1 (ru) Способ и компьютерное устройство для кластеризации веб-ресурсов
US20240015182A1 (en) Device for providing protective service against email security-based zero-day url attack and method for operating same
US20050120042A1 (en) Method and apparatus for content filtering
US7805415B1 (en) Systems and methods for sharing data between entities
CN102938785A (zh) 用于搜索引擎的不良信息举报和处理办法
CN105024982A (zh) 一种网络接入方法、装置和服务器
RU2481633C2 (ru) Система и способ автоматического расследования инцидентов безопасности
US20210271756A1 (en) System and method for detecting leaked documents on a computer network
CN101180629A (zh) 用于在无线装置上管理内容交换的设备和方法
CN117221135A (zh) 数据分析方法、装置、设备及计算机可读存储介质
US20240163299A1 (en) Email security diagnosis device based on quantitative analysis of threat elements, and operation method thereof
JP7293170B2 (ja) シグネチャ生成装置、検出装置、シグネチャ生成プログラム及び検出プログラム

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20080709

PA0201 Request for examination
PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20100531

Patent event code: PE09021S01D

PC1902 Submission of document of abandonment before decision of registration
SUBM Surrender of laid-open application requested