2.9小节完成,并修改声明。

This commit is contained in:
XiongNeng
2014-09-04 11:11:56 +08:00
parent ee5d886e09
commit 37ca46241c
7 changed files with 201 additions and 27 deletions

View File

@@ -3,11 +3,11 @@
=========================================================
-----------------
者的话
者的话
-----------------
人生苦短,我Python
人生苦短,我Python
者一直坚持使用Python3因为它代表了Python的未来。虽然向后兼容是它的硬伤但是这个局面迟早会改变的
者一直坚持使用Python3因为它代表了Python的未来。虽然向后兼容是它的硬伤但是这个局面迟早会改变的
而且Python3的未来需要每个人的帮助和支持。
目前市面上的教程书籍网上的手册大部分基本都是2.x系列的专门基于3.x系列的书籍少的可怜。
@@ -15,15 +15,8 @@
为了Python3的普及我也不自量力想做点什么事情。于是乎就有了翻译这本书的冲动了
这不是一项轻松的工作,却是一件值得做的工作:不仅方便了别人,而且对自己翻译能力也是一种锻炼和提升。
后来想了下一个人毕竟力量有限。如果能放到github上面来大家一起合作翻译那效果就完全不一样了
希望热爱python的有志之士可以一起合作把这本书翻译完成。通过fork/pull request方式。体验一把合作的魅力。
翻译这本书的前提是对python基础要有相当深入的研究请不要使用google翻译这样的工具
需要能把原文作者的意思完全表达出来,不需要逐字翻译,但表意一定要准确!
目前已经将项目的文件都已经新建好了如果想参与进来只需要更新对应的文件内容然后pull request给我就行
其他一切事情都由我来负责,也希望想参与进来的可以认真对待自己每一句的翻译,力求高质量。
译文中有什么错漏的地方请大家见谅,也欢迎大家指正: yidao620@gmail.com
译者会坚持对自己每一句的翻译负责,力求高质量。但受能力限制,也难免有疏漏或者表意不当的地方
如果译文中有什么错漏的地方请大家见谅,也欢迎大家随时指正: yidao620@gmail.com
--------------------------------------------------------------
@@ -52,3 +45,4 @@
.. _sphinx-rtd-theme: https://github.com/snide/sphinx_rtd_theme
.. _reStructuredText: http://docutils.sourceforge.net/docs/user/rst/quickref.html
.. _python3-cookbook: http://python3-cookbook.readthedocs.org/zh_CN/latest/

View File

@@ -0,0 +1,42 @@
#!/usr/bin/env python
# -*- encoding: utf-8 -*-
"""
Topic: unicode字符串标准化表示
Desc :
"""
import unicodedata
def nor_unicode():
s1 = 'Spicy Jalape\u00f1o'
s2 = 'Spicy Jalapen\u0303o'
print(s1, s2)
print(s1 == s2)
print(len(s1), len(s2))
# 先将文本标准化表示
t1 = unicodedata.normalize('NFC', s1)
t2 = unicodedata.normalize('NFC', s2)
print(t1 == t2)
print(ascii(t1))
t3 = unicodedata.normalize('NFD', s1)
t4 = unicodedata.normalize('NFD', s2)
print(t3 == t4)
print(ascii(t3))
# 扩展的NFKC和NFKD
s = '\ufb01' # A single character
print(s, len(s))
print(unicodedata.normalize('NFD', s), len(unicodedata.normalize('NFD', s)))
print(unicodedata.normalize('NFKC', s), len(unicodedata.normalize('NFKC', s)))
print(unicodedata.normalize('NFKD', s), len(unicodedata.normalize('NFKD', s)))
# 消除变音符
t1 = unicodedata.normalize('NFD', s1)
print(''.join(c for c in t1 if not unicodedata.combining(c)))
if __name__ == '__main__':
nor_unicode()

View File

@@ -17,7 +17,7 @@
1. 夏丹 (767962863@qq.com)
2. 张三 (zhangsan@gmail.com)
3. lisi (lisi@gmail.com)
3. 李四 (lisi@gmail.com)
|
|

View File

@@ -1,18 +1,101 @@
============================
2.9 Unicode字符串转为标准正则式
============================
===========================
2.9 Unicode文本标准化
===========================
----------
问题
----------
todo...
你正在处理Unicode字符串需要确保所有字符串在底层有相同的表示。
|
----------
解决方案
----------
todo...
在Unicode中某些字符能够用多个合法的编码表示。为了说明考虑下面的这个例子
.. code-block:: python
>>> s1 = 'Spicy Jalape\u00f1o'
>>> s2 = 'Spicy Jalapen\u0303o'
>>> s1
'Spicy Jalapeño'
>>> s2
'Spicy Jalapeño'
>>> s1 == s2
False
>>> len(s1)
14
>>> len(s2)
15
>>>
这里的文本"Spicy Jalapeño"使用了两种形式来表示。
第一种使用整体字符"ñ"(U+00F1),第二种使用拉丁字母"n"后面跟一个"~"的组合字符(U+0303)。
在需要比较字符串的程序中使用字符的多种表示会产生问题。
为了修正这个问题你可以使用unicodedata模块先将文本标准化
.. code-block:: python
>>> import unicodedata
>>> t1 = unicodedata.normalize('NFC', s1)
>>> t2 = unicodedata.normalize('NFC', s2)
>>> t1 == t2
True
>>> print(ascii(t1))
'Spicy Jalape\xf1o'
>>> t3 = unicodedata.normalize('NFD', s1)
>>> t4 = unicodedata.normalize('NFD', s2)
>>> t3 == t4
True
>>> print(ascii(t3))
'Spicy Jalapen\u0303o'
>>>
normalize()第一个参数指定字符串标准化的方式。
NFC表示字符应该是整体组成(比如可能的话就使用单一编码)而NFD表示字符应该分解为多个组合字符表示。
Python同样支持扩展的标准化形式NFKC和NFKD它们在处理某些字符的时候增加了额外的兼容特性。比如
.. code-block:: python
>>> s = '\ufb01' # A single character
>>> s
''
>>> unicodedata.normalize('NFD', s)
''
# Notice how the combined letters are broken apart here
>>> unicodedata.normalize('NFKD', s)
'fi'
>>> unicodedata.normalize('NFKC', s)
'fi'
>>>
|
----------
讨论
----------
todo...
标准化对于任何需要以一致的方式处理Unicode文本的程序都是非常重要的。
当处理来自用户输入的字符串而你很难去控制编码的时候尤其如此。
在清理和过滤文本的时候字符的标准化也是很重要的。
比如,假设你想清除掉一些文本上面的变音符的时候(可能是为了搜索和匹配)
.. code-block:: python
>>> t1 = unicodedata.normalize('NFD', s1)
>>> ''.join(c for c in t1 if not unicodedata.combining(c))
'Spicy Jalapeno'
>>>
最后一个例子展示了unicodedata模块的另一个重要方面也就是测试字符类的工具函数。
combining()函数可以测试一个字符是否为组合字符。
在这个模块中还有其他函数用于查找字符类别,测试是否为数字字符等等。
Unicode显然是一个很大的主题。如果想更深入的了解关于标准化方面的信息
请看考`Unicode官网中关于这部分的说明 <http://www.unicode.org/faq/normalization.html>`_
Ned Batchelder在`他的网站 <http://nedbatchelder.com/text/unipain.html>`_
上对Python的Unicode处理问题也有一个很好的介绍。

View File

@@ -4,15 +4,15 @@ Copyright
| 书名: 《Python Cookbook》3rd Edition
| 作者: David Beazley, Brian K. Jones
| 版本 第三版
| 译者 熊能
| 版本: 第3版
| 出版日期: 2013年5月08日
| Copyright © 2013 David Beazley and Brian Jones. All rights reserved.
|
更多发布信息请参考 http://oreilly.com/catalog/errata.csp?isbn=9781449340377
| 更多发布信息请参考 http://oreilly.com/catalog/errata.csp?isbn=9781449340377
|
|
|
|

View File

@@ -2,6 +2,22 @@
前言
==================================
----------------------------------
译者的话
----------------------------------
人生苦短我用Python
译者一直坚持使用Python3因为它代表了Python的未来。虽然向后兼容是它的硬伤但是这个局面迟早会改变的
而且Python3的未来需要每个人的帮助和支持。
目前市面上的教程书籍网上的手册大部分基本都是2.x系列的专门基于3.x系列的书籍少的可怜。
最近看到一本《Python Cookbook》3rd Edition完全基于Python3写的也很不错。
为了Python3的普及我也不自量力想做点什么事情。于是乎就有了翻译这本书的冲动了
这不是一项轻松的工作,却是一件值得做的工作:不仅方便了别人,而且对自己翻译能力也是一种锻炼和提升。
译者会坚持对自己每一句的翻译负责,力求高质量。但受能力限制,也难免有疏漏或者表意不当的地方。
如果译文中有什么错漏的地方请大家见谅,也欢迎大家随时指正: yidao620@gmail.com
----------------------------------
作者的话
----------------------------------

View File

@@ -2,4 +2,43 @@
Roadmap
===========
todo...
2014/08/10 - 2014/08/31:
::
| github项目搭建readthedocs文档生成。
| 整个项目的框架完成
2014/09/01 - 2014/09/30:
::
| 前4章翻译完成
2014/10/01 - 2014/10/31:
::
| 前8章翻译完成
2014/11/01 - 2014/11/01:
::
| 前12章翻译完成
2014/12/01 - 2014/12/31:
::
| 所有15章翻译完成包括附录
2015/01/01 - 2015/01/31:
::
| 对外公开发布完整版