28
ĐHCN-ĐHQG Hà ni Khoa Đin tVin thông 1 thuyết thông tin và hóa thuy thuy ế ế t t thông thông tin tin v v à à h h ó ó a a T T à à i i li li u u tham tham kh kh o ch o ch í í nh nh 1. 1. Digital Communications, Simon Digital Communications, Simon Haykin Haykin , , Prentic Prentic Hall Hall 2004 2004 2. 2. Thông Thông tin tin s s , , Nguy Nguy n n Vi Vi ế ế t t K K í í nh nh , , Tr Tr nh nh Anh Anh V V ũ ũ Nh Nh à à xu xu t t b b n n Gi Gi á á o o d d c c , 2007 , 2007

Trang bìa sdasdsadsadsadsadasdsad

Embed Size (px)

DESCRIPTION

Trang bìa sdasdsadsadsadsadasdsadTrang bìa sdasdsadsadsadsadasdsadTrang bìa sdasdsadsadsadsadasdsadTrang bìa sdasdsadsadsadsadasdsadTrang bìa sdasdsadsadsadsadasdsadTrang bìa sdasdsadsadsadsadasdsadTrang bìa sdasdsadsadsadsadasdsadTrang bìa sdasdsadsadsadsadasdsadTrang bìa sdasdsadsadsadsadasdsadTrang bìa sdasdsadsadsadsadasdsad

Citation preview

Page 1: Trang bìa sdasdsadsadsadsadasdsad

ĐHCN-ĐHQG Hà nội Khoa Điện tử Viễn thông 1

thuyết

thông

tin và

mã hóa

LýLý

thuythuyếếtt

thôngthông

tin tin vvàà

mãmã hhóóaa

TTààii liliệệuu thamtham khkhảảo cho chíínhnh1.1.

Digital Communications, Simon Digital Communications, Simon HaykinHaykin, , PrenticPrentic

Hall Hall 20042004

2.2.

ThôngThông

tin tin ssốố, , NguyNguyễễnn

ViViếếtt

KKíínhnh, , TrTrịịnhnh

AnhAnh VVũũ

NhNhàà

xuxuấấtt

bbảảnn

GiGiááoo

ddụụcc, 2007, 2007

Page 2: Trang bìa sdasdsadsadsadsadasdsad

ĐHCN-ĐHQG Hà nội Khoa Điện tử Viễn thông 2

Nội dung •

Mở đầu.

Chủ đề

1: Entropi và

mã hóa nguồn rời rạc. •

Chủ đề 2: Dung năng và

mã kênh rời rạc.

Kiểm tra giữa kỳ•

Chủ đề

3: Entropi vi phân. Mã kênh liên tục.

Chủ đề

4: Mã hóa nguồn liên tục. Tốc độ

méo.•

Chủ đề

5: Mã Turbo và

LDPC.

Ôn tập.

Page 3: Trang bìa sdasdsadsadsadsadasdsad

ĐHCN-ĐHQG Hà nội Khoa Điện tử Viễn thông 3

Mở đầuLý

thuyết truyền

tin số

hai

bước

đột

phá

từ

các

công trình

của

Claude Shannon 1948:•

Truyền

tin hiệu quả,

đạt

được

do mã

nguồn

Truyền

tin tin

cậy,

đạt

được

do mã

điều khiển lỗi

(mã

kênh)

Các

kết quả

này

được xây dựng

từ

cơ sở

lýthuyết

thông

tin

Page 4: Trang bìa sdasdsadsadsadsadasdsad

ĐHCN-ĐHQG Hà nội Khoa Điện tử Viễn thông 4

Các

khái

niệm•

Hiệu quả: Khi

số

bít trung

bình

biểu diễn 1

mẫu (từ

mã)

nguồn là ít nhất

không gây

mất

thông

tin.

Tin

cậy: Khi xác

suất lỗi truyền

tin có

thể nhỏ

tùy ý

(tiến

đến 0) với kỹ

thuật mã kênh

thích

hợp•

Đạt

được: Tiến

đến giới hạn như

Entropi

của

nguồn

hay

Capacity của kênh

Page 5: Trang bìa sdasdsadsadsadsadasdsad

ĐHCN-ĐHQG Hà nội Khoa Điện tử Viễn thông 5

Chủ đề

1 Entropi và

mã hóa nguồn rời rạc

Page 6: Trang bìa sdasdsadsadsadsadasdsad

ĐHCN-ĐHQG Hà nội Khoa Điện tử Viễn thông 6

Khái niêm thông tin:

- Một sự

kiện gọi là chứa

nhiều

thông

tin nếu khi xảy ra đem

đến

cho

người tiếp nhận

nhiều

điều

chưa biết.- Sở

nhiều

điều chưa biết vì sự

kiện

này

hiếm khi xảy ra.-

Vậy một sự

kiện với xác suất xảy ra nhỏ, nếu

xảy

ra

cho

nhiều

thông

tin chưa biết, hay lượng thông

tin tỷ

lệ

ngược với xác suất xảy ra sự

kiện.-

Để

thông

tin có

tính

cộng, người

ta

dùng

logarit

của xác suất sự

kiện và định

nghĩa như

sau:

Page 7: Trang bìa sdasdsadsadsadsadasdsad

ĐHCN-ĐHQG Hà nội Khoa Điện tử Viễn thông 7

Thông

tin của một sự

kiện•

Đn : Một sự

kiện sk

xác

suất xảy ra là

pk

có lượng

thông

tin là:

nếu pk

=1, thông

tin về

sự

kiện = 0•

khi

pk

=0.5, thông

tin = 1 bít

(đây

cũng

đơn vị đo

thông

tin hay đơn vị

biểu diễn

thông

tin)

khi

xác

suất sự

kiện xảy ra nhỏ, thông

tin có

giá trị

lớn cần

nhiều bít để

biểu diễn nó

kk psI 1log2

Page 8: Trang bìa sdasdsadsadsadsadasdsad

ĐHCN-ĐHQG Hà nội Khoa Điện tử Viễn thông 8

Thông

tin của một nguồn hữu hạn: Entropi

Đn: Một

nguồn rời rạc có

hữu hạn sự

kiện ứng với bảng

K chữ

cái

với xác suất xuất hiện

độc

lập:

thông

tin của

nguồn

này

(gọi

Entropi) là

tổng thông

tin các

sự

kiện

trong

nguồn với trọng

số

xác

suất xảy ra

các

sự

kiện

đó :

Page 9: Trang bìa sdasdsadsadsadsadasdsad

ĐHCN-ĐHQG Hà nội Khoa Điện tử Viễn thông 9

Tính

chất của

Entropi•

Entropi

ứng

với số

bít

tb

biểu diễn một sự

kiện (chữ

cái, một mẫu) của nguồn. •

T/c của

entropi:

- Biên thấp

ứng

với một chữ

cái

xác suất =1

- biên cao ứng

với xác suất bằng

nhau giữa các

chữ

cái hay

bất

định

cực

đại

(hỗn loạn cực

đại cũng

entropy max, giống

khái

niệm

trong

vật lý)

Page 10: Trang bìa sdasdsadsadsadsadasdsad

ĐHCN-ĐHQG Hà nội Khoa Điện tử Viễn thông 10

dụ

nguồn nhị

phân

không

nhớ•

K=2, p1

+p0

=1 entropi

cực

đại khi p0

=0.5

K=3

Đối với nguồn mở

rộng

(ứng

với một khối n chữcái

độc lập).

Page 11: Trang bìa sdasdsadsadsadsadasdsad

ĐHCN-ĐHQG Hà nội Khoa Điện tử Viễn thông 11

dụ

nguồn mở

rộng

Page 12: Trang bìa sdasdsadsadsadsadasdsad

ĐHCN-ĐHQG Hà nội Khoa Điện tử Viễn thông 12

hóa không

mất

mát nguồn rời rạc•

ĐN: Mã

hóa nguồn rời rạc hữu hạn nhằm biểu diễn mỗi

mẫu nguồn (chữ

cái)

bằng

một

nhóm bít (từ

mã). Hiệu quả mã

được

đo bằng

tỷ

số

giữa

H(X) và

số

bít

tb

của từ

mã.

Giả

sử

X là

một

nguồn rời rạc

(có

L chữ

cái)•

Xét

trường

hợp xác suất chữ

cái

bằng

nhau

(entropi

max)

- Khi L = lũy thừa của 2, số

bít

tối thiểu cần

cho

hóa

từ mã

sẽ

R=log2

L và

H(X)/R=1 (hiệu suất

100%)-

Khi

L không

phái

lũy thừa 2, chọn R=[log2

L]+1, H(X)/R <1 (hiệu suất

< 100%).

thể

tăng

hiệu suất mã bằng

cách mã

một

nhóm

J chữ cái

một lúc (bảng

Lj

chữ

cái

mở

rộng) chứ

không

phải mã từng

chữ

cái. Từ

N bít

tối thiểu khi đó là:

N=[Jlog2

L]+1.Số

bit/chữ

cái

R=N/J →H(X). Khi

cho

J đủ

lớn

Page 13: Trang bìa sdasdsadsadsadsadasdsad

ĐHCN-ĐHQG Hà nội Khoa Điện tử Viễn thông 13

Mã hóa không mất mát nguồn rời rạc•

Khi

xác

suất chữ

cái

không

bằng

nhau: Dùng

từ

độ

dài

thay

đổi

(mã

Morse). Chữ

cái

hay xảy ra

gán

từ

ngắn. Chữ

cái

ít

xảy ra gán từ

dài

hơn. Loại

này

cũng tiến gần

entropi

(còn gọi là mã Entropi).

Ngoài

việc

đạt

entropi

thiết kế

phải

khả

thi trong

truyền

tin, tức là phải thỏa mã đ/k

tức thời

duy

nhất. 3 nội

dung xem

xét

ở đây

là:–

Đk tiền tố

điều kiện

thích

hợp cho việc thiết kế

tức thời

duy

nhất

(Mã

huffman

lempel-Zip xây dựng

theo

phương

pháp

này)

luôn

tồn tại mã thỏa mãn điều kiện tiền tố

không.–

tiền tố

đạt

entropi

không

Page 14: Trang bìa sdasdsadsadsadsadasdsad

ĐHCN-ĐHQG Hà nội Khoa Điện tử Viễn thông 14

Điều kiện tiền tố•

Giả

sử

từ

của chữ

cái

sk

làTrong

đó

i bit đầu tiên là:

Đn: Điều kiện tiền tố

đk

trong

đó

không

từ

nào là

nhóm

đầu tiên (tiền tố) của từ

khác

(trong

bảng

chỉ

loại II là thỏa mãn điều kiện này)•

Đ/k tiền tố

cho

phép

giải mã giải

duy

nhất và tức thời

Page 15: Trang bìa sdasdsadsadsadsadasdsad

ĐHCN-ĐHQG Hà nội Khoa Điện tử Viễn thông 15

Giải mã tiền tố•

Giải mã của loại

này

bắt

đầu từ đầu

dãy

giải mã từng

từ

một. •

Mỗi khi đến

điểm cuối

cây mã bộ

giải mã lại

đilại từ đầu. Ví

dụ

dãy

được mã là

1011111000, •

Giải mã là s1

s3

s2

s0

s0

Page 16: Trang bìa sdasdsadsadsadsadasdsad

ĐHCN-ĐHQG Hà nội Khoa Điện tử Viễn thông 16

Điều kiện tồn tại mã tiền tố•

BĐT Kraft: Cần và đủ

để

tồn tại mã tiền tố

(có

các

độ

dài

n1

≤n2

.. ≤nL

) là:

CM Điều kiện

đủ

(xây

dựngcây

nL

tầng)

CM Điều kiện cần (xây dựngcây

n>nL

tầng)

121

L

k

nk

Page 17: Trang bìa sdasdsadsadsadsadasdsad

ĐHCN-ĐHQG Hà nội Khoa Điện tử Viễn thông 17

Định

hóa nguồn rời rạc•

Định

Shannon 1: Tồn tại

nguồn

không

mất

mát

khi

tốc

độ

R>H(X). Không

tồn tại

nguồn

không

mất mát

nếu tốc

đô mã

R<H(X). Để

CM cần chuẩn bị

k/niệm

Dãy đại diện: Giả

sử

bảng

chữ

cái: S={a1

,a2

,..aN

} với xác suất p1

,p2

,..pN

. Với x có độ

dài n

rất lớn (luật số

lớn) ai

trong

x sẽ

xuất hiện npi

lần

(x gọi là dãy đại diện )

Cần nH(X) bít để

biểu diễn một

dãy

đại diện hay

số

bít cho

1 từ

là:

Page 18: Trang bìa sdasdsadsadsadsadasdsad

ĐHCN-ĐHQG Hà nội Khoa Điện tử Viễn thông 18

CM định lý mã nguồn•

CM: Trước hết chỉ

ra tồn tại mã sai khác 1 bit

với H(x) Chọn mã có độ

dài: thỏa mãn tiêu chuẩn Kraft nên độ

dài mã tb có biên trên:

Để

chỉ ra biên dưới, xét bài toán tối ưu có điều kiện với

Dùng tiêu chuẩn lagrange:•

suy ra hệ:

hay entropi là biên dưới

Page 19: Trang bìa sdasdsadsadsadsadasdsad

ĐHCN-ĐHQG Hà nội Khoa Điện tử Viễn thông 19

Định

đạt

entropi

của mã tiền tố

(cách CM khác)

Định

lý: Có

thể

cấu trúc một mã tiền tố, có

độ dài

tb

R thỏa mãn: H(X)≤R≤H(X)+1.

CM: •

BĐT trái:

từ

công

thức Kraft

(Sử

dụng

lnx≤x-1)

Đẳng

thức xảy

ra

khi

chỉ

khi

pk

=2-nk

đối với 0≤k≤L

L

k k

n

k

L

k k

n

k

L

kkk

L

k kk

ppe

pp

npp

pRXH

kk

12

12

112

2lnlog2log

1log)(

012log12log)(1

21

2

L

k

nL

k k

n

kk

k

ep

peRXH

Page 20: Trang bìa sdasdsadsadsadsadasdsad

ĐHCN-ĐHQG Hà nội Khoa Điện tử Viễn thông 20

Định lý đạt entropi của mã tiền tố

BĐT phải:

thể

khi

chọn {nk

} sao

cho

Theo Kraft, tồn tại mã tiền tố. Lấy

logarit hai vế:

logpk

<-nk

+1 hay nk

<1-logpk

Nhân

2 vế

với pk

lấy tổng

theo

k ta

có vế

BĐT vế

phải

122 kk nk

n p

Page 21: Trang bìa sdasdsadsadsadsadasdsad

ĐHCN-ĐHQG Hà nội Khoa Điện tử Viễn thông 21

Huffman•

Qui tắc

mã: Ký

hiệu

nguồn

được xếp theo thứ

tự

xác

suất giảm.

2 ký

hiệu với xác suất thấp nhất được gán 0 và 1

2 ký

hiệu

nguồn

này

được tổ

hợp thành ký hiệu nguồn mới với xác suất = tổng

xs

của

2 nguồn

ban đầu và được

thay

thế

vào

danh

sách

ứng với giá trị

của nó

Quá

trình

được lặp lại cho đến hết

danh

sách

chỉ còn

2 nguồn. Sau

đó

dùng

0 và

1 gán

cho

nguồn

tìm

được bằng

cách

đi ngược lại

Page 22: Trang bìa sdasdsadsadsadsadasdsad

ĐHCN-ĐHQG Hà nội Khoa Điện tử Viễn thông 22

dụ

Page 23: Trang bìa sdasdsadsadsadsadasdsad

ĐHCN-ĐHQG Hà nội Khoa Điện tử Viễn thông 23

Tính chất

Huffman•

Quá

trình

Huffman là

không

duy

nhất

Huffman tạo

nên

tiền tố

R thỏa mãnH(X)≤R≤H(X)+1

Khi

thực hiện

theo

khối (mở

rông)JH(X)≤RJ

≤JH(X)+1hay H(X)≤RJ

/J≤H(X)+1/J•

Bên

cạnh

giá

trị

tb, phương

sai

của

độ

dài

Khi

thay

thế

vị

trí

hiệu mới

vị

trí

cao

hơn ký hiệu cũ cùng

xác

suất

luôn

cho

phương

sai

nhỏ

hơn

Page 24: Trang bìa sdasdsadsadsadsadasdsad

ĐHCN-ĐHQG Hà nội Khoa Điện tử Viễn thông 24

dụ•

Nguồn 3 chữ

x1

,x2

,x3

xác

suất tương ứng

0.45, 0.35, 0.2.

Tính

H(X),R theo

Huffman, hiệu suất mã

Tính

cho

nguồn mở

rộng

2 ký

hiệu. Entropi

của

nguồn

này

độ

dài

hiệu

suất•

Đ/s: 1.518, 1.55, η=97,9%

3.0675, 1.534, η=99,%

Page 25: Trang bìa sdasdsadsadsadsadasdsad

ĐHCN-ĐHQG Hà nội Khoa Điện tử Viễn thông 25

Lempel-Ziv•

Nhược

điểm của

Huffman là

phải biết trước

xác

suất

nguồn

(xác suất xuất hiện các ký

hiệu). –

Thực tế

không

phải

lúc

nào

cũng

biết trước xác suất

nguồn–

Ngoài

ra

Huffman không tính đến sự

liên

hệ

giữa

từ

nhóm

từ

nên

cũng

làm

giảm hiệu quả

mã.•

Lempel-Ziv thích

nghi

khả

thi

hơn mã

Huffman, mã này còn

gọi là mã nguồn vạn năng•

Qui tắc mã:

Chia

dòng

dữ

liệu thành các mảnh

độ

dài

ngắn nhất chưa gặp phải trước

đó

Page 26: Trang bìa sdasdsadsadsadsadasdsad

ĐHCN-ĐHQG Hà nội Khoa Điện tử Viễn thông 26

dụ

Page 27: Trang bìa sdasdsadsadsadsadasdsad

ĐHCN-ĐHQG Hà nội Khoa Điện tử Viễn thông 27

Giải mã•

Giải

dùng

con trỏ

xác

định

dãy

gốc sau đó

thêm

vào

hiệu làm mới•

LZ dùng

độ

dài

cố định

để

biểu diễn

các

hiệu

nên

dễ

cho

truyền

đồng

bộ.•

Trong

dụ

44 bit thành

16 từ

5 bit=80 có

vẻ

không

hiệu quả

song tăng

độ

dài

sẽ

hiệu quả. •

Thực tế

độ

dài

12 bit được

dùng

cho

sách

4096

đầu vào. Bảng

thể

quá

tải

song chỉ

cần

bên

và giải mã giống

nhau, khi

chạy sẽ

loại bỏ

từ

không

dùng,

giảm

quá

tải bảng

mã.•

LZ là

thuật toán tiêu chuẩn hiện

nay cho

nén

file. Đối với

tiếng

Anh

đạt

độ

nén

55%. Còn

Huffman chỉ

nén 43%. Nguyên

do mã

Huffman không

tận dụng

ưu thế

thừa giữa

các

hiệu

trong

ngôn

ngữ

Page 28: Trang bìa sdasdsadsadsadsadasdsad

ĐHCN-ĐHQG Hà nội Khoa Điện tử Viễn thông 28

Tóm tắt•

Entropi là thước đo thông tin một nguồn tin và

giới hạn dưới của độ

dài trung

bình từ

mã nguồn tin•

Mã hóa nguồn đạt được entropi và

thích

hợp cho truyền tin là

mã thỏa mãn t/c tiền tố

có độ

dài khối lớn

Mã Huffman và

Lempel-ziv là

loại mã tiền tố đạt entropi song Lempel-ziv thực tế

có độ

nén cao hơn