반응형

안녕하세요 무꼬입니다~

 

MMA를 하면서 주짓수도 배우는데요.

화려함 보다는 확실함이 매력이 있는 무술이라고 생각합니다 ㅎㅎ

 

주짓수 관련된 영상이 있어서 포스팅합니다 ㅎㅎ

 

 

 

반응형
반응형



 빌게이츠,마크주커버그,드류휴스턴"놀라운 힘"

이 나라 모든 사람들이 컴퓨터 프로그래밍을 배워야 하는 이유는?
사고하는 법을 배워야 하기 때문이다.

 

 

 

프로그래머가 아니더라도 프로그래밍은 배워야 합니다~라는 주제로 시작하는 동영상이에요!

 

전 프로그래밍을 하는 입장에서 되게 흥미가 생거 보게 되었다가 포스팅하게 됩니다 ㅎㅎ

 

우리 생활의 전반적인 모든 곳에는 프로그래밍이 깔려있습니다. ㅎ

 

하지만 프로그래밍 언어를 일반인중에 읽고 쓸 수 있는 사람은 몇이나 될까요? 

 

외국 기업에는 이런 인재들의 창의력 발굴을 위해 최고의 환경을 제공해줍니다~

 

우...나도 외국에서 태어날걸...ㅋㅋ

 

프로그래밍은 미래의 마법사입니다.


반응형
반응형


[2014. Seoul]
꽤 괜찮은 선물과 꽃
주인은 없다.




 



안녕하세요~ 무꼬입니다!



belifcosmetic Belif 화장품 회사에서 마케팅으로 내놓은 광고인데요.

처음에는

역시..우리나라 어쩔수 없구나....이랬다가

....뒤에 반전이....ㅎㅎㅎㅎ


아직 세상은 살만 합니다!!ㅎㅎ





반응형
반응형

activeX란 선마이크로사의 자바에 대응하기 위해 마이크로소프트사에서

개발한 웹응용프로그램이다.


이것이 초기에 도입 됐을 때는 개발사용법이 쉬워 IE 점유율이

특히 높은 우리나라에서 인기를 얻어 지금까지 두루 사용되고 있다.


그러나 현재에 와서

이 activeX는 많은 문제점을 안고 있지만 개발 비용이 저렴하고 배포와 유지관리 비용이 많이 들지 않아 많은 기업에서 activeX의 유혹을 떨치지 못하고 있다.


activeX는 웹기반(브라우저)의 플러그인에서 구동되지만 몇가지 기능 제한을 빼고는 우리 컴퓨터에서 많은 일들을 하고 사용자들은 그것이 무엇인지 알기는 어렵다.


우리나라 은행 사이트에 접속했는데 이것저것 보안 프로그램이 설치 됐다.

사람들은 그것이 내 컴퓨터와 은행을 안전하게 연결시켜주고 나의 소중한 정보를 안전하게 보호해 줄 것이라 믿는다.


그러나 실상은 모두 속고 있는 것이다.

다시 설명하겠지만 activeX로 구동되는 보안프로그램들은

몇가지 취약점과

개발자 의도에 의한 악의적 목적을 갖고 구동되기도 하기 때문에사용자는 주의가 필요하다.


컴퓨터를 다루는 것에 능숙하지 않다면

현재 자기 컴퓨터에 어떤 activeX가 설치 됐고

내가 자주 사용하는 프로그램은 어떤 것인지, 

또 불필요한 프로그램을 제거하려면 어떻게 해야 하는지 알기 어렵다.


이런 문제를 해결하기 위해 많은 activeX 관리 프로그램이 있다.

그 중 국가사이버안전센터에서 만들어 배포하는 무료 프로그램을 추천하고 싶다.

 

첨부된 파일을 받으면 아래의 아이콘이 나온다.

(참고로 무꼬's 아트라이프 블로그에 있는 모든 첨부파일은 광고도 없고,

악성코드  하나도 없으니 안심하고 받으라!)

 

 

 

 파일 실행시

(가벼운 파일이라 엄청 금방 깔립니다!)

 

 

 

프로그램 실행시!

 

확인을 눌러주면 실행이 됩니다.

 

무꼬의 집에서는 저거 하나밖에 안나오네요~ 관리를 잘하는 탓임..하핳

 

 

■ 개 요

- 각종 인터넷 사이트에서 보안통신, 동영상재생 등을 위해 배포하는 ActiveX Control 프로그램들이 PC에 한번 설치되면 자동으로 지워지지 않아 해킹에 악용될 우려가 있음에 따라

일정기간(15, 30, 60일) 이상 사용되지 않고 있는 ActiveX Control을 삭제하는 보안프로그램 'CleanAX'를 배포하오니 월 단위 실행 등으로 인터넷 PC의 청소에 활용하시기 바랍니다.

 

■ 'CleanAX' 프로그램 설치 및 사용 방법

o 프로그램 설치 방법
  - 본 권고문의 상단에 있는 '첨부파일'을 클릭, PC의 임의 폴더에 설치파일을 저장
  - 설치파일 'Setup_CleanAX.exe'를 실행하면 나타나는 화면에서 "확인" 버튼 클릭
    * 설치 환경 : 윈도우 XP, Vista

o 프로그램 사용 방법
  - 바탕화면에 있는 'CleanAX' 아이콘을 클릭하여 프로그램 실행

 

이상 무꼬였습니다. 해당 파일은 국가사이버안전센터에서 바로 받으실 수 있지만

편의를 위해 깨끗한 파일을 올려 드리겠어용!!

 

 

Setup_CleanAX.exe.

(참고로 무꼬's 아트라이프 블로그에 있는 모든 첨부파일은 광고도 없고,

악성코드  하나도 없으니 안심하고 받으라! 혹시나 문제발생시 댓글로!!!)

반응형
반응형


안녕하세요 무꼬입니다~



오늘은 감동영상 하나 가져왔어요~ ㅎㅎ




사람들이 동물들 구하는 영상인데요.


자연과 공생한다는 느낌이 들어서 너무 좋네요 ㅎㅎ

반응형
반응형

안녕하세요 무꼬입니다~


제가 블로그를 운영하면서,

스파이더(spider)와 크롤러(crawler)에 대한 정보가 필요해져 이리저리 찾아보다가 2010년에 이지넷에 올라와있는 정보를 공부하기위해서 잠시 인용해둡니다 ㅎㅎ

여러분도 공부하기위해 필요하시다면 참고하도록 하세요~


출처는 이지넷 http://www.eznetsol.com/07/06.php






1.스파이더(spider),크롤러(crawler)란 무엇인가?

스파이더(spider) 혹은 크롤러(crawler)라고도 불리는 로봇은 인터넷에 있는 웹페이지(웹문서)를 방문해서 수집하는 일을 합니다. 이 때 한 페이지만 방문하고 마는 것이 아니라 그 페이지에 링크되어 있는 또 다른 페이지를 차례로 방문합니다. 이처럼 링크를 따라 웹(web:거미줄)을 돌아다니는 모습이 마치 거미와 비슷하다고 해서 스파이더라고 부르는 것입니다.

참고로 각 검색엔진의 로봇에는 고유한 이름이 존재하며, 네이버 로봇의 이름은 cowbot이라고 합니다.

2.스파이더(spider),크롤러(crawler)가 하는 일은?

엄 청난 분량의 웹문서를 사람이 일일이 색인을 작성한다는 것은 불가능에 가깝습니다. 때문에 웹문서 검색에서는 사람이 일일이 색인을 다는 대신 프로그램이 이를 자동으로 수행해 줍니다. 색인작업을 하기 위해서는 우선 색인의 대상이 될 웹문서를 수집해야 합니다.
웹문서를 자동으로 수집해 주는 역할을 하는 것이 바로 로봇이라는 프로그램입니다.

3.스파이더(spider),크롤러(crawler)와 웹사이트(디렉토리)검색,웹문서검색의 관계는?

대 부분의 검색엔진은 "웹사이트(디렉토리)검색"과 "웹문서검색" 서비스를 병행하고 있는데 디렉토리(웹사이트)검색결과에 나오기 위해 홈페이지등록을 하는 것이고 자의든 타의든 홈페이지등록이 되어 있지 않은 경우에는 웹사이트( 디렉토리)검색결과에 나오지 않습니다.

홈페이지가 검색엔진에 등록된 경우 얼마 후에 그 검색엔진의 로봇은 홈페이지를 방문하여 문서를 수집해 갑니다.

홈페이지가 등록되어 있지 않은 경우에도 스파이더가 홈페이지를 방문하여 문서들을 수집해 갈 수 있습니다.

이렇게 수집된 문서들은 색인과정을 거친 후 검색창에 검색을 한 경우 관련 문서들을 "웹문서"검색결과에 나타나게 됩니다.

4.스파이더가 내 홈페이지의 문서들을 수집하게 하자

인 내심을 가지고서 기다리면 언젠가는 홈페이지를 방문하여 문서를 수집,색인하게 된다. 그러나 색인신청을 하는 방법도 있으므로 참조하도록 하자. 대부분의 메이저급 검색엔진들에서는 구글과 코리아와이즈넛의 웹문서검색서비스를 이용하고 있다. 과거에는 구글의 웹문서검색서비스를 많이 이용했으나 요즘에는 크게 구글,코리아와이즈넛,자체 웹문서검색서비스를 이용하고 있다. 특히 코리아와이즈넛의 웹문서검색서비스를 이용하는 검색엔진들이 늘어가고 있는 추세다.

구글에 URL을 등록하자 : http://www.google.co.kr/intl/ko/add_url.html
코리아와이즈넛에 사이트를 등록하자 : http://www.wisenut.co.kr/submit/

구글과 코리아와이즈넛의 웹문서검색서비스를 이용한 경우를 보자. 구글의 웹문서검색서비스를 이용한 경우 웹문서검색결과 우측에

코리아와이즈넛의 웹문서검색서비스를 이용한 경우 웹문서검색결과 우측에

란 로고가 있다.

각 검색엔진에 웹사이트(디렉토리)등록 못지 않게 메이저급검색엔진에 웹문서검색서비스를 제공하고 있는 구글과 코리아와이즈넛에 URL을 등록하여 이들로부터 서비스를 받고 있는 검색엔진의 웹문서검색결과에 자신의 홈페이지가 검색되도록 하자.

5.로봇 배제방법

검색로봇의 문제점


로 봇이라는 프로그램이 네트워크를 돌아다니게 되면 자칫 네트워크에 엄청난 트래픽(Traffic)이 발생할 수 있습니다. 즉, 네트워크에 과부하가 걸려 특정 사이트에 접속이 잘 되지 않거나 속도가 느려지는 문제가 생길 수 있습니다. 또한 동호회 명단, 직장 전화번호등 원치 않은 정보가 검색엔진에 노출되는 결과가 생길 수도 있습니다.

해결방안

1) 첫 번째로 어떤 사이트를 보려면 ID와 비밀번호가 필요하도록 만드는 방법입니다.

이 경우 로봇은 해당 사이트의 ID와 비밀번호를 가지고 있지 않기 때문에 접근할 수가 없게 됩니다. 이 방법은 로봇의 접근을 직접적으로 배제하는 강력한 수단이지만 사이트를 사용하는 사람들도 ID와 비밀번호를 입력해야 하는 불편함이 있습니다. 간혹 ID와 비밀번호로 막아놓은 페이지가 네이버의 웹문서 검색에 노출된다는 문의가 들어오기도 합니다.

하지만 링크로 연결되지 않는 한 네이버의 로봇은 비밀번호로 보안을 걸어놓은 문서에 접근하지 못합니다. 비밀번호로 보안을 걸어놓았는데도 웹검색에 노출이 되는 경우는 어떤 사람(주로 내부자)이 해당 문서의 URL을 다른 웹페이지에 적어놓았기 때문일 가능성이 큽니다.

2) 두 번째로 로봇 배제(Robot exclusion) 표준을 따르는 방법이 있습니다.

로봇 배제 표준이란 말 그대로 웹문서를 수집해 가는 로봇을 배제한다는 뜻입니다. 로봇의 배제와 관련된 내용을 적어 놓은 robots.txt 파일을 사이트의 최상위 주소(서버 루트 디렉토리 예:www.gaseo.com/robots.txt)에 저장하면 됩니다. robots.txt를 서브디렉토리에 놓는 경우 효력이 없다는 사실에 주의하세요.예를 들어, www.yourhost/~mypage 밑에 robots.txt가 있어도 이는 아무런 효력을 갖지 못합니다. 로봇은 오직 루트 디렉토리의 robots.txt만을 참조할 뿐입니다. 로봇의 접근을 어디까지 허용할 것이냐에 따라 robots.txt에 들어가는 내용은 달라집니다.로봇 배제에 대한 보다 자세한 내용은 http://www.robotstxt.org에서 확인할 수 있습니다.

(1) 모든 로봇을 배제하고 싶을 때

User-agent: *
Disallow: /

(2) 모든 로봇을 허용하고 싶을 때
이 경우에는 “robots.txt”를 작성할 필요가 없으나, 굳이 작성을 하자면 다음과 같습니다.
( (1)과 비교했을 때 “/”가 빠져 있습니다.)

User-agent: *
Disallow:

(3) 모든 로봇에게 서버의 일부분만을 제한하고 싶을 때

User-agent: *
Disallow: /my_photo/
Disallow: /my_diary/

이렇게 작성하면 로봇은 my_photo, my_diary라는 폴더에 속한 웹문서에 접근할 수 없습니다.

(4) 특정 로봇만을 배제하고 싶을 때
아래의 예에서는 “EvilRobot”이라는 이름을 가진 로봇만을 배제하게 됩니다.

User-agent: EvilRobot
Disallow: /

(5) 특정 로봇에게만 접근을 허용하고 싶을 때
아래의 경우 Cowbot만이 웹문서를 수집해갈 수 있습니다.

User-agent: Cowbot
Disallow:
User-agent: *
Disallow: /

3)세 번째로 메타태그를 이용하는 방법

“robots.txt” 를 작성하는 것과 유사한 방법으로 HTML문서의 와 태그 사이에 라는 메타태그를 추가하면 로봇은 웹문서를 가져갈 수 없습니다. 이 방법은 다소 번거롭기는 하지만 문서 하나하나에 대해 정확하게 명시를 해주기 때문에 가장 확실하게 로봇의 접근을 막을 수 있는 방법입니다.



그럼 저도 크롤러에 대한 공부를 하러가보겠습니다

다들 블로그 열공하세요!! ㅎㅎ 이상 무꼬였습니다!

반응형

'개발 & 강의 > 스크랩' 카테고리의 다른 글

[영상] 프로그래밍을 배워야 하는 이유는?  (2) 2014.10.12

+ Recent posts