Python学习记录

Python的创始人为
吉多·范罗苏姆
(Guido van Rossum)

    Python英国发音:/ˈpaɪθən/ 美国发音:/ˈpaɪθɑːn/),是一种面向对象直译式电脑程序语言。它包含了一组功能完备的标准库,能够轻松完成很多常见的任务。它的语法简单,与其它大多数程序设计语言使用大括号不一样,它使用缩进来定义语句块。

    与SchemeRubyPerlTcl动态语言一样,Python具备垃圾回收功能,能够自动管理内存使用。它经常被当作脚本语言用于处理系统管理任务和网络程序编写,然而它也非常适合完成各种高级任务。Python虚拟机本身几乎可以在所有的操作系统中运行。使用一些诸如py2exe、PyPy、PyInstaller之类的工具可以将Python源代码转换成可以脱离Python解释器运行的程序。

    Python的官方解释器是CPython,该解释器用C语言编写,是一个由社区驱动的自由软件,目前由Python软件基金会管理。

Python支持命令式程序设计面向对象程序设计函数式编程面向侧面的程序设计泛型编程多种编程范式。

python,操作pdf文件以及普通文件…

2017年08月22日

首先,需要安装插件:pypdfoutput = PdfFileWriter()#读取pdf文件input1 = PdfFileReader(file('/home/zilu/workspace/liuy/project/caifujutou/static/xml/test.pdf', 'rb'))output.addPage(input1.getPage(0))outputStrem = open...

简单网络爬虫抓取博客文章及思想介绍

2017年08月22日

前面一直强调Python运用到网络爬虫方面很有效,这篇文章也是结合学习的Python视频知识及我研究生数据挖掘方向的知识.从而简介下Python是怎样爬去网络数据的,文章知识很easy,可是也分享给大家,就当简单入门吧!同一时候仅仅分享知识,希望大家不要去做破坏网络的知识或侵犯别人的原创型文章.主要包含: 1.介绍爬取CSDN自己博客文章的简单思想及过程 ...

python入门:爬虫抓取sina博客文章

2017年08月22日

python爬虫给我的感觉就是一个查找功能,网页用html来写的一个脚本,spider就是在这里面抓取你想要的信息。 这一章简单用爬虫实现抓取sina博客上的文章,并把它们的链接保存到本地(入门,没有用到ip代理、cookies、正则表达式等)。 准备材料:Google chrome浏览器、python27,spyder(IDE)1.分析网页url 首先打开韩...

pyodbc的简单使用

2017年08月21日

1、连接数据库1)直接连接数据库和创建一个游标(cursor)cnxn = pyodbc.connect('DRIVER={SQL Server};SERVER=localhost;DATABASE=testdb;UID=me;PWD=pass') cursor = cnxn.cursor()2)使用DSN连接。通常DSN连接并不需要密码,还是需要提供一个PSW的关键字。cnxn = pyodb...

Python爬虫日记三:爬取v2ex数据用csv保存

2017年08月20日

一:前言 v2ex是一个汇集各类奇妙好玩的话题和流行动向的网站,有很多不错的问答。这次爬虫是五一期间做的,贴出来网址https://www.v2ex.com/?tab=all。 目标:爬取全部分类中的文章标题,分类,作者,文章地址这些内容然后以csv格式保存下来。 二:说明 本次使用的是Python3.6版本 作者这个内容是js动态数据 使用xpath Beauti...

python:文件的读取、创建、追加、删除、清空

2017年08月20日

一、用Python创建一个新文件,内容是从0到9的整数, 每个数字占一行:#python>>>f=open('f.txt','w') # r只读,w可写,a追加>>>for i in range(0,10):f.write(str(i)+'\n'). . .>>> f.close()二、文件内容追加,从0到9的10个随机整数:#python>>>import random>>>f=ope...

python写入csv文件中文乱码解决方案

2017年08月20日

今天修改程序,需要写入csv文件,发现中文会乱码,后来查了下,可以设置文件写入属性后,就可以解决:# -*- coding: utf-8 -*-import csvimport pyodbcimport lxml.htmlfrom link_crawler import link_crawlerfrom datetime import datetimeimport sysimport codecs...

'ascii' codec can't encode characters in position 0-2: ordinal not in range(128)问题

2017年08月20日

'ascii' codec can't encode characters in position 0-2: ordinal not in range(128)问题解决方法:解决方法:在Python脚本中开头处加上以下两句代码即可: reload(sys) sys.setdefaultencoding('utf8')参考资料: 'ascii' codec can't encode characte...