最近痴迷于Python的逻辑控制,还有爬虫的一方面,原本的目标是拷贝老师上课时U盘的数据。后来发现基础知识掌握的并不是很牢固。便去借了一本Python基础和两本爬虫框架的书。便开始了自己的入坑之旅

  言归正传

  前期准备

  Import requests;我们需要引入这个包。但是有些用户环境并不具备这个包,那么我们就会在引入的时候报错

  

  这个样子相信大家都不愿意看到那么便出现了一下解决方案
  我们需要打开Cmd 然后进入到我们安装Python的Scripts目录下输入指令
  pip install requests
  
  当然还会出现下面的情况
  
  

又是一个报错是不是很烦  那么我们按它的提示升级一下组件   输入命令

 python -m pip install --upgrade pip

  安装成功后我们便可以正常的导入 requests

 那么我们是不是就可以做一下什么了?比如说爬取一个网站的所有信息爬取下来?


  import requests;
    
   //导入我们需要的库


  def GetName(url):
  //定义一个函数并且传入参数Url

  resp=requests.get(url);
  
//获取网页上的所有信息

  //以文本的模型返回

  return resp.text;

    //定义一个字符串也就是我们要爬取的地址
  url="https:xxxxxxxxxx";

      //函数方法
  def xieru():
      //打开一个文本,以写入的方式写入二级制文本
  fi=open('E://1.txt',"wb+");
    //接受
  con = GetName(url);
      //返还的文本转换编码格式
   ss=con.encode('utf-8')
      //写入打开的文本中
  fi.write(ss);
   return 0;


   xieru();


哈哈 上面的网址就打码了哦,大家自己脑补。
   这是我爬取的内容
  

 

 

 



       
 
内容来源于网络如有侵权请私信删除
你还没有登录,请先登录注册
  • 还没有人评论,欢迎说说您的想法!