csrf攻击及防御方法

csrf攻击的主要就是冒用用户的身份执行危险操作。 原理就是用户登录的网站A,然后在登录状态下,在同一浏览器,又访问了危险网站B(携带了A的cookie),B网站里执行了访问A网站的链接。就是相当于冒

2020-05-06 22:42:22

scrapy安装及常用命令

scrapy是python语言开发的爬虫框架,非常有名。想用这个做爬虫工具。这里记录一下使用方法和常用命令。 安装 pip3 install Scrapy 建项目 scrapy startprojec

2020-05-05 04:29:16

module lxml has no attribute etree错误处理

问题代码: import lxml selector = lxml.etree.HTML(resp.text) 代码报错:AttributeError: module 'lxml' has no at

2020-05-04 17:06:31

xpath使用方法和常用工具

最近想使用python做爬虫,使用xpath做爬取工具。 在这里记录一下xpath的常用表达式和函数工具等等。 //:获取所有节点 [1]:获取多个节点的第一个 [last()]:获取多个节点的最后一

2020-05-04 14:39:08

pip使用方法

安装pip(一定要注意版本。) 如果系统里存在python2和python3。如果想安装python3的pip。需要执行 sudo apt-get install python3-pip 卸载pip

2020-04-29 05:29:43

ipython使用笔记

安装 sudo apt install ipython 把输入的内容保存文件(test.py): %hist -f test.py 清屏 ctrl + L

2020-04-27 07:25:28

linux ctrl+c ctrl+z ctrl+d的含义

linux 下的 ctrl+c ctrl+z ctrl+d的含义如下: ctrl + c :终止进程 ctrl + z :暂停进程,比如使用vim修改文件时,突然想去shell执行一些其他命

2020-04-22 06:42:15

wget命令常用参数

wget是常用的linux下载命令。 常用参数如下: -O:指定下载文件名 -c:断点续传 -b:在后台下载 -U:user agent --mirror:镜像某个网站 -p:下载相关资源 -r:递归

2020-04-21 06:54:22

linux实用命令行

查看本机外网IP: 先通过curl命令 请求http://httpbin.org/get,然后再通过grep和cut命令过滤,最后设置别名myip,以后执行myip就能获取ip了。 alias myi

2020-04-21 06:20:21

curl使用方法

curl命令可以发起http请求。 格式: curl 参数 url 参数列表: -A:设置UserAgent。例子: curl -A " Mozilla " http://pgres.cn -X:设置

2020-04-20 22:31:02

< 1
...
14 15 16 17 >