Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
Tags
- 열공하자
- Lag
- partitioning
- frontend
- 파티셔닝
- node.js
- node.js란
- localStorage
- PostgreSQL
- Node.js기본
- mariadb
- 성장기
- ServerSentEvent
- 개발자
- SSE
- EventSource
- 실시간알림
- Partition
Archives
- Today
- Total
목록Lib (1)
써치킴의 우당탕탕 개발 블로그
robot.txt : 검색엔진 크롤러 접근 제어 규약
robot.txt웹사이트에 웹 크롤러같은 로봇들의 접근을 제어하기 위한 규약웹사이트에서 크롤링하며 정보를 수집하는 검색엔진 크롤러(or 검색로봇)가 액세스하거나 정보수집을 해도 되는 페이지가 무엇인지, 안되는 페이지가 무엇인지 알려주는 역할을 하는 txt 파일크롤링웹페이지의 내용을 가져오는 것. 스크래핑(Scraping)이라고도 한다.robot.txt 작성[기본 형식]User-agent: *Disallow: /forbidden/User-agent: robots.txt에서 지정하는 크롤링 규칙이 적용되어야 할 크롤러를 지정Allow: 크롤링을 허용할 경로 (/ 부터의 상대 경로).Disallow: 크롤링을 제한할 경로 (/ 부터의 상대 경로).Sitemap: 사이트맵이 위치한 경로의 전체 URL (http..
Lib
2024. 10. 30. 10:46