Sisteme și comunicații informaționale, rețele și mijloace de transmisie, telecomunicații și informatică

Comunicații telecomunicații

Duminică, 19 decembrie 2010.

Comunicații în telecomunicații. Tipuri

Comunicații în telecomunicații

1. Tipuri de mesaje

Informațiile sunt schimbate prin intermediul mesaje.

Mesajele a (t) sunt discret și analogic.

Discrete sunt acele mesaje care sunt alcătuite dintr-un număr finit de caractere. Așa sunt mesajele din telegrafie, din transmisia de date, din telemecanică, din comunicarea dintre calculatoare etc. Numărul de caractere depinde de alfabet sau sistemul numeric utilizat.

Analog (continuu) sunt mesaje constând dintr-un număr nelimitat de caractere, adică. folosind un alfabet infinit de mare. Ele sunt reprezentate de o funcție continuă a timpului. De obicei analogice sunt mesajele audio care utilizează un număr infinit de valori de ton și volum, dar la un interval de schimbare stabilit.

2 Parametrii mesajului

Parametrii principali ale mesajului sunt cele informative. Sunt:

  • cantitatea de informații conținute în mesaj;
  • productivitatea informației și capacitatea sursei;
  • redundanță informațională a mesajului.

1. Cantitatea de informații

Pentru a înțelege cum este determinat cantitatea de informații, conceptul trebuie reamintit entropie.

Entropie H (a) (entropie) este măsură de incertitudine. Dacă totul se știe despre lucru, entropia acestuia are o valoare zero. Când nu se știe nimic, entropia sa este infinită.

Informația Ia care este primită cu mesajul „stinge” incertitudinea. Mesajul ai conține informații Ia, care este diferența dintre valorile entropiei înainte de H1 (ai) și după primirea mesajului de la destinatarul H2 (ai):

Se formează totalitatea tuturor mesajelor posibile despre „lucru” și probabilitatea lor de apariție ansamblu de mesaje. Cel mai simplu ansamblu este format din două mesaje a1 și a2, de ex. a1 - „Acum este ziua”, a2 - „Acum este noaptea”. De asemenea, pot fi a1 = 1 și a2 = 0, „ezi”/„tura”, +/-, „bun”/„rău” etc.

Măsura cantității de informații este logaritmică: -log2P (a), unde P este probabilitatea de a primi mesajul a. Deoarece probabilitatea este mai mică și cel mult egală cu 1, există un semn negativ în fața logaritmului - pentru a obține cantitatea în numere pozitive. Să explicăm acest lucru pentru cel mai simplu ansamblu.

Fie ca mesajele să fie independente și la fel de probabile, adică. probabilitatea P (a1) de a primi mesajul a1 este egală cu probabilitatea P (a2) de a primi mesajul a2: P (a1) = P (a2) = P (a) = ½. La primirea unui mesaj, s-au primit informații, a căror valoare este:

(2.2)

Acesta este cel mai mic număr întreg folosit pentru a măsura cantitatea de informații apelate "Cifră binară" prescurtat 1 bit. Dacă unul dintre mesajele a1 și a2 este mai probabil decât celălalt, informațiile ar fi mai mici de 1 bit.

Înainte de a arunca o monedă, nu știm ce va cădea - ezi sau tura, dar știm că probabilitatea pentru fiecare dintre cele două posibilități a1 și a2 este egală, adică. P1 (a1) = P2 (a2) = 0,5. Prin formula (2.2) se poate găsi:

După căderea monedei, s-au primit câteva informații. Aceleași informații se obțin atunci când se transmite un mesaj cu un impuls electric care are două valori la fel de probabile 1 și 0, dacă sunt de aceeași probabilitate.

În cazul general pentru n mesaje la fel de probabile în ansamblu, cantitatea de informații pe care fiecare dintre ele le poartă este:

(2.3)

Datorită măsurii logaritmice, cantitatea de informații conținută în mai multe mesaje independente este obținută egală cu suma informațiilor conținute în fiecare dintre ele:

(2.4)

Aceasta corespunde ideii intuitive de acumulare (colectare) de informații la primirea de informații și mesaje suplimentare.

Să luăm exemple:

  1. Dacă aruncăm un zar, probabilitatea de a cădea, de exemplu, numărul 5, este 1/6. Pentru oricare dintre cele șase laturi ale cubului, acest lucru este la fel de probabil. Informațiile care poartă mesajul sunt:
  2. Determinați cantitatea de informații conținute într-un cuvânt format din 6 litere ale alfabetului rus, unde numărul total de litere este 32. Vom presupune că probabilitatea lor de apariție în mesaj este aceeași și, prin urmare, egală cu P (a) = 1/32. Înlocuind cu (2.3) obținem că fiecare literă poartă: Ia = log232 = informații de 5 biți. Prin (2.4) se dovedește că cantitatea de informații din cuvânt este = 6x5 = 30 biți.

Cu toate acestea, exemplul cu alfabetul nu este corect. Literele nu intră în mesaj cu o probabilitate egală. Vocala este apare mult mai des decât ъ, consoana b este mai probabil decât l etc. Atunci nu toate mesajele din ansamblu poartă aceleași informații.

În general, mesajele au o probabilitate diferită de apariție. Prin urmare, atunci când se evaluează proprietățile de informații generale ale sursei de mesaj trebuie determinate ai ()

entropie lui H (a). Se găsește ca suma cantității de informații pe care o transmit toate mesajele, dar ținând cont de probabilitatea apariției fiecărui mesaj:

(2,5)

Din această formulă mai generală, se obțin cu ușurință (2.2) și (2.3).

Această formulă este valabilă pentru mesaje independente. Există formule pentru determinarea entropiei pentru mesajele dependente, pe care nu le vom cita aici.

Interferența în sistemul de comunicații schimbă mesajul primit. Mesajele de interferență conțin mai puține informații. Influența tulburărilor asupra entropiei mesajelor poate fi raportată analitic dacă sunt cunoscuți parametrii săi cantitativi.

2. Productivitatea informațională a sursei Ht (bit/s)

Productivitatea informațiilor este rata la care apar mesajele, adică cantitatea de informații conținute în mesaje pe unitate de timp.

Se numește performanța maximă a sursei de informații Ht max (bit/s) capacitatea sursei Cи. Evident, capacitatea unui cod Morse este mai mică decât cea a unui computer care rulează pe Internet. Oamenii vorbesc diferit repede și au capacități diferite ca surse de informații.

3. Excedent de informații

Cea mai mare (Hmax) este entropia sursei cu apariția la fel de probabilă a simbolurilor în mesajele dintr-un ansamblu. Dacă există două mesaje posibile, atunci Hmax = ½.

Cu toate acestea, în cazul general, probabilitățile nu sunt aceleași, datorită cărora entropia sa reală este mai mică: