V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
metaquant
V2EX  ›  分享发现

汉语中的词频及笔画数分布规律探析

  •  
  •   metaquant · 2018-09-15 12:59:11 +08:00 · 2718 次点击
    这是一个创建于 2297 天前的主题,其中的信息可能已经有所发展或是发生改变。

    一篇汉字词频与笔画数规律的数据分析小文,和大家交流,也请大佬们多指教,V2EX 不能很好的显示数学公式,所以贴上自己的博文地址和 GitHub 仓库地址:

    博文地址: https://md.metaquant.org/2018/words.html

    notebook 地址: https://github.com/sorrowise/chinese_data_analysis/blob/master/chinese_data_analysis_CH.ipynb

    GitHub repo:https://github.com/sorrowise/chinese_data_analysis

    以下为正文:




    一、引言

    大约八十年前,哈佛大学的语言学家乔治·金斯利·齐普夫(George Kingsley Zipf)对英语中的词频分布进行了研究,发现了一条经验规律,他发现:如果把一篇较长文章中每个词出现的频次统计起来,按照高频词在前、低频词在后的递减顺序排列,并用自然数个这些词编上的等级序号,即频次最高的词等级为 1,频次次之的等级为 2 等等,若用$F$表示频次,$R$表示序号,则有$FR=C$($C$为常数),也就是说词语的频次和其频次排名呈反比例关系。假如以单词的频次排名为横轴,以单词的频次为纵轴绘制散点图,会发现图形大致呈现双曲线形。为了数学上处理的方便,我们可以对词频及词频排名取对数(自然对数或以十为底的对数均可),考虑到:$F=\frac{C}{R}$,则有: $$ log(F)=log(C)-log(R) $$ 所以$log(F)$与$log(R)$应呈线性关系,在图形上应该是一条直线,如下:

    受到齐普夫的启发,其它学者也纷纷验证该定律对其它语言的适用性,他们发现齐普夫定律在很多语言中也是成立的。如上图,频次排名对数与频次的对数成线性关系。一个很自然的问题是,该定律在汉语中的适用性如何?

    汉字作为象形文字,显著不同于以英语为代表的拼音文字,其语言的基本单位为单字,然后再由单字组成两字词、三字词等以表达更加复杂的意义。拼音文字的基本单位为单词,意义的扩展通过创造新词汇或者拼接已有单词组成新词汇来实现。因此,英语可以以单词为单位来统计词频,而汉语则必须以词语为基本单位来统计,这既包括单字,也包括多字词,只有这样才能准确描述汉语词频的分布规律

    利用教育部语言文字应用研究所计算语言学研究室提供的在线语料库字词频数据,我们可以检验齐普夫定律在汉语中的适用性,加深我们对汉语词频分布规律的认识。由于以上数据并不包括汉字的笔画数数据,我们可以利用笪骏提供的现代汉语单字频率列表,进一步研究汉字笔画数的分布规律。

    我们使用 jupyter notebook 对以上数据进行分析,相关 notebook 及数据文件已经上传到这个仓库,大家可以下载数据进行分析验证。数据文件版权归原作者所有,如有侵权请通知我删除。

    二、汉语词频分布规律

    首先,我们导入一些数据分析必要的库,并做一些初始化设置:

    import numpy as np
    import statsmodels.api as sm
    import matplotlib.pyplot as plt
    import warnings
    warnings.filterwarnings("ignore")
    import seaborn as sns
    sns.set(style="white",color_codes=True)
    import pandas as pd
    %matplotlib inline
    plt.rcParams['figure.figsize'] = (15,9.27)
    

    然后导入word_freq.xlsx这个数据文件,这个数据文件收录了现代汉语语料库中出现次数大于 50 次的词的出现次数、频率与累计频率数据。该语料库的规模为 2000 万字,该表共收集了 14629 个词,既包括单字,也包括多字词。让我们先看下数据的基本情况:

    df = pd.read_excel('word_freq.xlsx')
    df.head(10)
    
    <thead> </thead>
    rank word freq freq_percent cum_freq_percent
    0 1 744863 7.7946 7.7946
    1 2 130191 1.3624 9.1570
    2 3 118823 1.2434 10.4004
    3 4 118527 1.2403 11.6407
    4 5 83958 0.8786 12.5193
    5 6 81119 0.8489 13.3682
    6 7 65146 0.6817 14.0499
    7 8 53556 0.5604 14.6103
    8 9 52912 0.5537 15.1640
    9 10 52728 0.5518 15.7158

    数据的前十行显示如上表:其中第一列为汉字中词语按出现频次从高向低排名,如“的”字在语料库中出现的次数最多,则排在第一名;第二列为对应的汉字及词语;第三列为该汉字或词语在语料库中出现的次数,如“的”在语料库中共出现了 744863 次;第四列表示该汉字或词语在语料库中出现的频率的百分比,如“的”出现的频率为 7.7946%;第五列为累计频率,为该汉字(词语)及排名靠前的汉字(词语)累计出现的频率,如到排名第十的汉字“我”,前十名汉字出现的累计频率为 15.7158%。

    为了之后分析的方便,我们需要另外计算三列数据,分别为词语频次排名的以 10 为底的对数、频次以 10 为底的对数及词语中汉字数(单字词还是多字词),则:

    df['log_rank'] = np.log10(df['rank'])
    df['log_freq'] = np.log10(df['freq'])
    df['word_count'] = df['word'].apply(len)
    df.head(10)
    
    <thead> </thead>
    rank word freq freq_percent cum_freq_percent log_rank log_freq word_count
    0 1 744863 7.7946 7.7946 0.000000 5.872076 1
    1 2 130191 1.3624 9.1570 0.301030 5.114581 1
    2 3 118823 1.2434 10.4004 0.477121 5.074901 1
    3 4 118527 1.2403 11.6407 0.602060 5.073817 1
    4 5 83958 0.8786 12.5193 0.698970 4.924062 1
    5 6 81119 0.8489 13.3682 0.778151 4.909123 1
    6 7 65146 0.6817 14.0499 0.845098 4.813888 1
    7 8 53556 0.5604 14.6103 0.903090 4.728808 1
    8 9 52912 0.5537 15.1640 0.954243 4.723554 1
    9 10 52728 0.5518 15.7158 1.000000 4.722041 1

    word_count列,我们可以看到,词频表中收录的最长的词包含十个单字,平均而言包含两个单字。通过简单的统计,我们可以看到词语中汉字个数的分布规律如下表:其中两字词出现的次数最多,为 10476 次,占比达到 71.61%;其次为单字词,为 2391 次,占比达到 16.34%。

    # Count the frequency and frequency of occurrences of words of various lengths
    
    word_length = pd.DataFrame(df.word_count.value_counts()).sort_index()
    word_length.columns = ['freq']
    word_length['freq_percent'] = 100*word_length['freq']/sum(word_length['freq'])
    word_length.head(10)
    
    <thead> </thead>
    freq freq_percent
    1 2391 16.344248
    2 10476 71.611183
    3 1181 8.073006
    4 506 3.458883
    5 43 0.293937
    6 22 0.150386
    7 8 0.054686
    8 1 0.006836
    10 1 0.006836

    现在让我们看看汉语中词频的分布规律是否符合齐普夫定律:

    sns.regplot(df.log_rank,df.log_freq)
    plt.xlim(0,4.3)
    plt.ylim(1,7)
    plt.title('The relationship between the logarithm of the frequency ranking and the logarithm of the frequency')
    

    png

    从上图可以看出,频次排名的对数与频次的关系大致是线性关系,基本符合齐普夫定律。让我们对两个变量做一个线性回归,观察相关指标是否表明两者之间的线性关系足够强。首先,我定义了一个辅助函数,调用 statmodels 库中的相关函数进行线性回归并返回回归结果。

    def reg(y,*args):
        import statsmodels.api as sm
        x = np.vstack((args)).T
        mat_x = sm.add_constant(x)
        res = sm.OLS(y,mat_x).fit()
        print(res.summary())
    
    reg(df.log_rank,df.log_freq)
    
                                OLS Regression Results                            
    ==============================================================================
    Dep. Variable:               log_rank   R-squared:                       0.990
    Model:                            OLS   Adj. R-squared:                  0.990
    Method:                 Least Squares   F-statistic:                 1.502e+06
    Date:                Sat, 15 Sep 2018   Prob (F-statistic):               0.00
    Time:                        10:27:07   Log-Likelihood:                 25420.
    No. Observations:               14629   AIC:                        -5.084e+04
    Df Residuals:                   14627   BIC:                        -5.082e+04
    Df Model:                           1                                         
    Covariance Type:            nonrobust                                         
    ==============================================================================
                     coef    std err          t      P>|t|      [0.025      0.975]
    ------------------------------------------------------------------------------
    const          5.7144      0.002   3450.432      0.000       5.711       5.718
    x1            -0.8846      0.001  -1225.535      0.000      -0.886      -0.883
    ==============================================================================
    Omnibus:                    15756.722   Durbin-Watson:                   0.007
    Prob(Omnibus):                  0.000   Jarque-Bera (JB):          2257816.630
    Skew:                          -5.242   Prob(JB):                         0.00
    Kurtosis:                      62.952   Cond. No.                         12.8
    ==============================================================================
    
    Warnings:
    [1] Standard Errors assume that the covariance matrix of the errors is correctly specified.
    

    我们可以发现回归的$R^2=0.99$,并且常数项与自变量的 p 值都小于 1%,这都表明频次的对数与频次排名的对数在很大程度上呈线性关系,这与齐普夫定律的预言一致。但是,我们也可以从回归图形中发现,低频词语的拟合程度更好,而高频词语的拟合程度较差,这表现在,前者基本都位于拟合直线上,而后者则大多位于拟合直线的下方。这说明对于汉语的高频词语而言,齐普夫定律预言的频率要高于高频词语的实际出现频率。我们可以通过下面的残差图更加直观的观察到这一点:

    sns.residplot(df.log_rank,df.log_freq)
    plt.ylabel('resid')
    plt.title('The relationship between the residual and the logarithm of the frequency ranking')
    

    png

    因此,为了观察不同频次词语的分布规律,我们可以用四分位将频次与排名数据分为四组:前 25%的词语为出现次数大于等于 296 ; 25%至 50%分位的词语的出现次数位于 126 与 296 之间; 50%分位至 75%分位的词语出现次数位于 51 至 126 之间;最后 25%的词语出现频次小于等于 51 次,由于原数据中删除了所有出现次数小于等于 50 次的词语,则最后一部分数据的频次都为 51 次为一个常数,此一部分的回归没有什么意义,但为了完整性,我们还是将其列出来。我们对这四组数据分别做回归并观察其残差图:

    log_rank_first = df.log_rank[df.freq>=296]
    log_freq_first = df.log_freq[df.freq>=296]
    log_rank_second = df.log_rank[(126<=df.freq) & (df.freq<296)]
    log_freq_second = df.log_freq[(126<=df.freq) & (df.freq<296)]
    log_rank_third = df.log_rank[(51<df.freq) & (df.freq<126)]
    log_freq_third = df.log_freq[(51<df.freq) & (df.freq<126)]
    log_rank_fourth = df.log_rank[df.freq<=51]
    log_freq_fourth = df.log_freq[df.freq<=51]
    
    
    plt.subplot(221)
    sns.regplot(log_rank_first,log_freq_first)
    plt.title('$frequency \geq 296,R^2=0.992$')
    plt.xlabel('')
    plt.subplot(222)
    sns.regplot(log_rank_second,log_freq_second)
    plt.title('$126 \leq frequency \leq 296,R^2=0.999$')
    plt.xlabel('')
    plt.ylabel('')
    plt.subplot(223)
    sns.regplot(log_rank_third,log_freq_third)
    plt.title('$51<frequency<126,R^2=1.000$')
    plt.subplot(224)
    sns.regplot(log_rank_fourth,log_freq_fourth)
    plt.title('$frequency \leq 51,R^2=0.000$')
    plt.ylabel('')
    

    png

    plt.subplot(221)
    sns.residplot(log_rank_first,log_freq_first)
    plt.title('$frequency \geq 296,R^2=0.992$')
    plt.xlabel('')
    plt.ylim(-1,0.2)
    plt.subplot(222)
    sns.residplot(log_rank_second,log_freq_second)
    plt.title('$126 \leq frequency \leq 296,R^2=0.999$')
    plt.xlabel('')
    plt.ylabel('')
    plt.ylim(-0.1,0.1)
    plt.subplot(223)
    sns.residplot(log_rank_third,log_freq_third)
    plt.title('$51<frequency<126,R^2=1.000$')
    plt.ylim(-0.1,0.1)
    plt.subplot(224)
    sns.residplot(log_rank_fourth,log_freq_fourth)
    plt.title('$frequency \leq 51,R^2=0.000$')
    plt.ylabel('')
    

    png

    我们可以看到对于 25%-75%分位的词语,线性回归的拟合情况非常好,$R^2$均接近于一,而前 25%的高频词语拟合程度就不太好,$R^2$只有$0.992$,而大部分的回归残差都来自于排名前 300 名的词语。总之,汉语词频的分布规律基本与齐普夫定律保持一致,而低频词语的一致性程度更高。从回归结果我们可以得到$log(f)=5.71-0.88log(r)$,则频次排名每增加 1%,其出现频次要下降 0.88%。

    三、汉字笔画数分布规律

    这篇论文里,Bengt Sigurd 等人发现英语中词语的长度与其出现频率的关系大致服务伽马分布,如下图:

    尽管在汉语中没有单词长度这种说法,但汉字的笔画数与其有一定相似之处,它们都衡量了人们为了表达特定的含义而愿意付出多少代价。词语的长度不能太短,因为这样能够形成的词语就太少,不能表达足够丰富的含义;词语的长度也不能太长,这样记忆与表达的难度会提升,从而影响沟通的效率。这就使得英语中长度太长或太短的词语出现的频率都比较低,同样的道理对于汉字的笔画数也是适用的。我们可以使用现有数据,来检验一下汉字笔画数的分布规律是否与英语单词长度的分布规律类似,都服从伽马分布。

    首先,让我们导入数据并看一下数据的基本信息:

    sc = pd.read_excel('char_stroke_count.xlsx')
    sc.head(10)
    
    <thead> </thead>
    rank char stroke_count
    0 1 8
    1 2 1
    2 3 9
    3 4 4
    4 5 2
    5 6 6
    6 7 2
    7 8 6
    8 9 7
    9 10 5

    该表格共收录了 10000 个汉字,其中第三列为汉字的笔画数,我们可以首先看下汉字笔画数的直方图,从而让我们对汉字笔画数的分布情况有一个直观的理解(如下图)。我们可以看到,笔画数为 10,11 与 12 的汉字较多,频率均处于 9%-10%之间。如果笔画数小于 11,则随着笔画数下降,出现的频率逐渐降低;反之,笔画数大于 11,则随着笔画数上升,出现的频率逐渐降低。

    count_pert = []
    for i in range(1,36):
        count_pert.append(len(sc.stroke_count[sc.stroke_count==i])/100.)
    
    x = np.arange(1,36)
    sns.barplot(x,count_pert)
    plt.xlabel('Number of strokes of Chinese characters')
    plt.ylabel('Frequency')
    plt.title('Histogram of the number of strokes in Chinese characters')
    

    png

    接下来让我们比较汉字笔画数的实际分布与伽马分布与正态分布的相似程度(如下图),我们可以发现,实际分布与伽马分布非常接近,而与正态分布相距较远。通过绘制 quantiles-quantiles 图,我们可以更加直观的观察到这一点:

    from scipy.stats import norm,gamma,probplot
    sns.distplot(sc.stroke_count,hist=False,kde_kws={"shade": True,"label":"actual distribution"},
                 fit=gamma,fit_kws={"label":"gamma distribution"},color='c')
    sns.distplot(sc.stroke_count,hist=False,fit=norm,
                 fit_kws={"label":"norm distribution","color":"red","linestyle":"--"})
    plt.ylabel('frequency')
    plt.title('real distribution v.s. gamma distribution v.s. norm distribution')
    plt.ylim(0,0.1)
    plt.legend(frameon=True,fontsize=12)
    

    png

    plt.subplot(121)
    probplot(sc.stroke_count,plot=plt,dist='gamma',sparams=(12.68,),fit=True)
    plt.title('actual distribution v.s. gamma distribution')
    plt.subplot(122)
    probplot(sc.stroke_count,plot=plt,dist='norm',fit=True)
    plt.title('actual distribution v.s. norm distribution')
    

    png

    四、结论

    有趣的是,虽然英语与汉语之间存在着天壤之别,它们的分布规律却有着很大的相似性。至于为什么会出现这种分布规律,现在还没有一个统一的解释。对于齐普夫定律的成因,目前至少有三种解释:第一种是齐普夫本人的解释,他认为这体现了人思维的经济性,即人类在不影响沟通效率的情况下尽可能的减少记忆词语的负担,这导致了某些常用词汇出现的频率非常高,已经完全足以应付日常生活中的大多数沟通场景。第二种观点认为齐普夫定律是“强者愈强、弱者愈强”这一规律的结果,某些常用词汇会被使用的越来越多,最终会导致类似于幂律分布的情况,其表现形式便是齐普夫定律。第三种观点:很多学者发现,齐普夫定律不仅在语言领域存在,而且在某些与语言并无关系的领域,如城市人口数排名与其人口的关系也服从齐普夫定律。这使得学者们倾向于相信,齐普夫定律的真正原因恐怕与语言的性质关系不大,而是与某种数据生成的过程有关。如 Xavier 在他的论文Zipf's Law for Cities: An Explanation中给出了一种简单而又美妙的答案:不需要任何条件,只要所有城市人口都以一个同分布的随机速度增长,那么最后的城市人口就会符合 Zipf 法则。这个简单的条件也是 Zipf 分布横跨语言、经济、地理数界的原因之一。

    五、参考资料

    1. Zipf ’ s law. (2018). In Wikipedia. Retrieved from https://en.wikipedia.org/w/index.php?title=Zipf%27s_law&oldid=859042231
    2. The mystery of Zipf. (2008, August 21). Retrieved 14 September 2018, from https://plus.maths.org/content/mystery-zipf
    3. Powers, D. M. (1998). Applications and explanations of Zipf ’ s law. In Proceedings of the joint conferences on new methods in language processing and computational natural language learning (pp. 151 – 160). Association for Computational Linguistics.
    4. Gabaix, X. (1999). Zipf ’ s law for cities: an explanation. The Quarterly Journal of Economics, 114(3), 739 – 767.
    5. Li, W. (1992). Random texts exhibit Zipf ’ s-law-like word frequency distribution. IEEE Transactions on Information Theory, 38(6), 1842 – 1845.
    6. Newman, M. E. (2005). Power laws, Pareto distributions and Zipf ’ s law. Contemporary Physics, 46(5), 323 – 351.
    7. Shtrikman, S. (1994). Some comments on Zipf ’ s law for the Chinese language. Journal of Information Science, 20(2), 142 – 143.
    8. Sicilia-Garcia, E. I., Ming, J., & Smith, F. J. (2003). Extension of Zipf ’ s Law to Word and Character N-grams for English and Chinese. International Journal of Computational Linguistics & Chinese Language Processing, Volume 8, Number 1, February 2003: Special Issue on Word Formation and Chinese Language Processing, 8(1), 77 – 102.
    9. Kanter, I., & Kessler, D. A. (1995). Markov processes: linguistics and Zipf ’ s law. Physical Review Letters, 74(22), 4559.
    6 条回复    2018-09-17 11:22:19 +08:00
    nemo95
        1
    nemo95  
       2018-09-15 13:51:08 +08:00 via Android   ❤️ 1
    出现频次高当然按频次排序的序号低…这算什么定理,香蕉大则香蕉皮也大?
    v2register
        2
    v2register  
       2018-09-15 15:39:53 +08:00
    楼主有没有《 GB13000.1 字符集汉字笔顺规范》( GF3002-1999 )的文本数据?
    metaquant
        3
    metaquant  
    OP
       2018-09-15 16:27:29 +08:00
    @nemo95 #1 两者是相关的,但不意味着两者之间的关系是线性的,但实际上非常接近于线性,所以叫定律,需要解释
    metaquant
        4
    metaquant  
    OP
       2018-09-15 16:28:11 +08:00
    @v2register #2 抱歉,暂时没有这个数据,如果以后碰到了,我再回复你
    westworld
        5
    westworld  
       2018-09-16 22:07:26 +08:00
    突然发现楼主的博客很简洁啊,排版也不错,电脑上看着很舒服
    metaquant
        6
    metaquant  
    OP
       2018-09-17 11:22:19 +08:00
    @westworld #5 嗯嗯,用了 typora 的网页导出功能,关注内容,无关的东西都省去了
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2614 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 31ms · UTC 10:53 · PVG 18:53 · LAX 02:53 · JFK 05:53
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.