信源

来自中文百科专业版
跳转至: 导航搜索

  信源拼音:xìn yuán;英语:Information Source),产生消息(符号)、消息序列和连续消息的源。信源的主要性质为它的输出是随机的,因而它是概率性的,在数学上可以用随机变量、随机序列和随机过程来表示。信息是抽象的,信源则是具体的。例如谈话时人的发声系统就是语声信源、电视中被摄制的客观人和物就是图像信源;另外还有文字信源、数据信源、遥感信源等。最基本的信源是单个消息(符号)信源。根据信源输出的随机变量的取值集合,信源可以分为离散信源和连续信源两类。实际信源是由最基本的单个消息信源组合而成的。

  信息传播过程简单地描述为:信源→信道→信宿。其中,“信源”是信息的发布者,即上载者;“信宿”是信息的接收者,即最终用户。在传统的信息传播过程中,对信源的资格有严格的限制,通常是广播电台、电视台等机构,采用的是有中心的结构。而在计算机网络中,对信源的资格并无特殊限制,任何一个上网者都可以成为信源。

主要性质

  信源输出是随机的,因而它是概率性的。从概率统计观点看,概率分布是信源最基本、最完整的统计特性。对离散无记忆信源,信源消息序列是统计独立的,因此只要知道单个消息的概率分布就能完全决定整个消息序列的联合概率分布。对离散有记忆信源情况就不同了,它必须知道整个消息序列的联合分布,而求有记忆信源的联合分布是很困难的。只是在一些很特殊的情况下,已知分布类型和某些统计参量,如均值、协方差,才能求出分布。最典型的例子是具有有限维的正态分布,其概率分布决定于均值和协方差。

  实际信源分布即使是一维的也往往是未知的,通常采用直方图统计量,以便为实际信源寻找出一个近似的概率分布。在求实际语声、图像分布时,常采用这种方法。利用概率分布,可以进一步引用信息熵H(X)来描述信源的统计特性。根据信息论可得出以下结论:对离散信源,当信源消息序列独立、等概率分布时,信息熵最大。对连续信源,只有在一定约束条件下才具有最大熵。例如当信号峰值功率受限制时,均匀分布信源的信息熵最大;而当信号平均功率受限制时,正态分布信源的信息熵最大。利用信息熵还可以很方便地描述有记忆信源的统计特性。根据熵的性质,无记忆的单个消息熵大于有记忆的单个消息熵,且记忆越长,单个消息熵就越小。实际信源多数是有记忆的,但是在传送信源消息时往往按无记忆考虑,因此信源存在着压缩的可能性。

实际信源

  图像和语声是最常用的两类主要信源。要充分描述一幅活动的立体彩色图像,须用一个四元的随机矢量场X(x,y,z,t),其中x,y,z为空间坐标;t为时间坐标;而X是六维矢量,即表示左、右眼的亮度、色度和饱和度。然而通常的黑白电视信号是对平面图像经过线性扫描而形成。这样,上述四元随机矢量场可简化为一个随机过程X(t)。图像信源的最主要客观统计特性是信源的幅度概率分布、自相关函数或功率谱。关于图像信源的幅度概率分布,虽然人们已经作了大量的统计和分析,但尚未得出比较一致的结论。至于图像的自相关函数,实验证明它大体上遵从负指数型分布。其指数的衰减速度完全取决于图像类型与图像的细节结构。实际上,由于信源的信号处理往往是在频域上进行,这时可以通过傅里叶变换将信源的自相关函数转换为功率谱密度。功率谱密度也可以直接测试。

  语声信号一般也可以用一个随机过程X(t)来表示。语声信源的统计特性主要有语声的幅度概率分布、自相关函数、语声平均功率谱以及语声共振峰频率分布等。实验结果表明语声的幅度概率分布可用伽玛(γ)分布或拉普拉斯分布来近似。语声信号的自相关函数,根据实验也可以大致认为属于负指数分布类型,且样点间相关性很强,一般高达0.9以上。语声信号的平均功率谱的测试表明,语声主要能量集中在1千赫以下。语声的共振峰频率是语声功率谱的主要峰值。这样的峰值并非一个,而且它的值随音调的变化有一定的变动范围。人们对汉语、英语的共振峰分布已获得一定的测试结果。

信源的可信性问题

  它包括两个要素:第一是传播者的信誉(Credibility),包括诚实、客观、公正等品格条件;第二是专业权威性(Expertness),即传播者对特定问题是否具有发言权和发言资格。这两者构成了可信性的基础。对信源(传播者)的可信性与说服效果的关系进行了实证考察的是霍夫兰等人,他们提出了“可信性效果”的概念:一般来说,信源的可信度越高,其说服效果越大;可信度越低,说服效果越小。这个概念说明,对传播者来说,树立良好的形象争取受众的信任是改进传播效果的前提条件。