Aplicatii Ale Informaticii in Geografie

  • View
    1.181

  • Download
    7

Embed Size (px)

Text of Aplicatii Ale Informaticii in Geografie

APLICAII ALE INFORMATICII N GEOGRAFIE Forma de nvmnt ID i FR 1. Aspecte generale Cod curs Denumire curs Tip curs Durata cursului/credite Perioada de accesare a cursului Manualul recomandat G/G/2/3/09 Aplicaii ale informaticii n geografie obligatoriu Semestrelul III /credite 5 Prelegeri: Lucrri practice: Lect. drd. Ionel Benea (mari 1230-15 i jo 12 1330) NU ESTE PREVZUT CURS N PLANUL DE NVMNT Studenii de la aceste forme de nvmnt vor folosi suportul de curs de pe Avizierul Virtual al Facultii de Geografie a Universitii Spiru Haret. Obiectul principal este acela de a furniza studenilor un cumul de cunotine necesare nelegerii lucrului n mediul virtual, respectiv a constrngerilor i avantajelor folosirii computerelor pentru aplicaii n domeniul geografiei. Aplicaiile propriu-zise vor fi realizate n cadrul altor cursuri: teledetecie, prelucrarea datelor, sisteme informaionale geografice. Nota rezult din rezolvarea testelor pe platforma de eLearning a Universitii Spiru Haret. Lect. drd. Ionel Benea i_bna@hotmal.com

Obiectul principal al cursului

Modul de stabilire a notei finale Consultaii pentru studeni Adrese e-mail responsabil i_bna@hotmal.com pentru contactul cu studenii Titularul cursului Lector univ. drd. Ionel BENEA 2. Coninutul tematic al cursului (semestrul I)

CAPITOLUL 1. Teoria Informaiei CAPITOLUL 2. Informatica - tiina despre informaie CAPITOLUL 3. Bazele aritmetice ale sistemelor de calcul CAPITULUL 4. Operaii n cod zecimal binar CAPITOLUL 5. Coduri, operaii aritmetice CAPITOLUL 6. Bazele logice ale structurii i funcionrii calculatoarelor electronice CAPITOLUL 7. Algoritmi CAPITOLUL 8. Limbaj - Limbaje de programare3. Bibliografia minim obligatorie Suportul de curs de pe Avizierul Virtual 5. Prezentarea capitolelor:

CAPITOLUL 1. TEORIA INFORMAIEI 1.1. Introducere Una dintre caracteristicile cele mai pregnante ale secolului XX a fost dezvoltarea i exploatarea unor noi medii de comunicare. n paralel cu creterea numrului de mijloace i procedee de transmitere i exploatare a informaiei, a fost dezvoltat i o teorie de unificare, cunoscut sub numele de teoria informaiei, iar aceasta a devenit obiectul unor studii extrem de intense. De fapt, aceast teorie a fost iniiat de o singur persoan, inginerul american Claude E. Shannon, ale crui prime idei au fost publicate n articolul "Teoria matematic a comunicrii", aprut n Bell System Technical Journal (1948). n sensul cel mai larg, informaia este considerat ca incluznd mesajele care se transmit n orice mediu standadizat de comunicare, cum ar fi telegrafia, radioul, televiziunea sau semnalele interne din calculatoarele electronice, sistemele servomecanice sau orice alt procedeu de procesare a datelor. Teoria informaiei se aplic i pentru semnalele care apar n sistemele nervoase ale fiinelor vii. Semnalele sau mesajele nu trebuie s fie purttoare de semnificaii n sensul obinuit al cuvntului. Preocuparea principal a teoriei informaiei este aceea de a descoperi legi matematice care pot guverna sisteme desemnate pentru a comunica sau manipula informaia. Aceasta se refer la stabilirea unor uniti de msurare cantitativ a informaiei i la capacitatea diverselor sisteme de a transmite, stoca sau procesa ntr-un fel oarecare informaia respectiv. Unele dintre problemele abordate se refer la gsirea celor mai bune metode de folosire a diferitelor sisteme de comunicare accesibile le un moment dat, a celor mai bune metode de selectare doar a informaiei dorite i separarea acesteia de cea extern, numit zgomot. O alt problem este aceea a stabilirii limitei superioare a ceea ce se poate realiza cu un anumit mediu de transport al informaiei (adesea numit canal de informaie). Dac rezultatele i intereseaz mai ales pe inginerii din comunicaii, unele dintre concepte au fost deja preluate de alte domenii, cum ar fi psihologia i lingvistica. Graniele tiinei despre informaie sunt slab precizate; exist suprapuneri evidente cu teoria comunicrii, dei ea este orientat mai mult spre limitrile fundamentale ale procesrii i comunicrii informaiei i mai puin spre detalierea operaiilor i mijloacele tehnice implicate. 1.2. Msurarea informaiei. Alegeri binare i bii Cel mai simplu mod de a exprima o alegere este cel al alegerii de tip binar: din dou posibiliti, fiecare are probabilitatea de producere de 1/2. Aceasta este situaia, de exemplu, ca o moned aruncat n sus s cad pe una dintre cele dou fee. Este convenabil, prin urmare, s folosim cantitatea de informaie produs de o astfel de alegere drept unitate de baz, iar aceast unitate de baz s o denumim bit. n teoria informaiei i n comunicaii bitul este unitatea de informaie echivalent cu rezultatul unei alegeri binare, ca ntre 0 i 1 n sistemul binar folosit n general n calculatoarele digitale. Termenul este o prescurtare a cuvintelor "binary digit" din limba englez. Noiunea de bit se folosete i pentru a desemna unitatea de memorie a unui computer capabil s stocheze rezultatul unei alegeri dintre dou alternative (evident, tot 0 i 1). Alegerea implicat de un bit de informaie este redat schematic n figura 1.2 (stnga). Ramura de sus sau de jos poate fi aleas cu o probabilitate de 1/2. Dac sunt N posibiliti, toate cu anse egale, cantitatea de informaie este de log2 N. Motivaia este vizibil n figura 1.2 (dreapta), n care sunt 8 posibiliti, fiecare cu o probabilitate de 1/8. Ne putem imagina c alegerea se poate

face n trei etape, fiecare dintre acestea implicnd un singur bit. Primul bit corespunde alegerii primelor patru sau ultimelor patru posibiliti din totalul de opt; al doilea bit corespunde alegerii primei dau a celei de-a doua perechi din setul de patru posibiliti ales anterior; bitul final va determina primul sau al doilea element din perechea respectiv. Numrul de bii necesari este cerut conform formulei log2 N, n cazul nostru log2 8 = 3.

Figura 1.2. Alegere binar (stnga); trei alegeri binare succesive (dreapta). Dac ns posibilitile nu sunt egale ca potenial de producere, mesajul va avea cantiti diferite de informaie asociate fiecreia. Valoarea calculat a acestor cantiti de informaie este dat de formula: H = p1log2(1/p1) + p2 log2(1/p2) + + pNlog2(1/pN) i se numete entropie H sau informaia medie a setului de mesaje. Entropia are valoarea cea mai mic, respectiv 0, atunci cnd mesajul este sigur c se va produce (adic are probabilitatea 1) i toate celelalte mesaje nu se vor produce (au probabilitatea 0). n mod intuitiv, nu exist informaie ntr-un mesaj care este sigur n mod a priori. n mod reciproc, entropia are valoare maxim log2N atunci cnd N mesaje dintr-un set au probabiliti maxime. Mesajele individuale dintr-un set pot avea n mod arbitrar cantiti mari de informaie, dar aceste mesaje sunt att de rare nct valoarea calculat este dat tot de log2N. 1.3. Codificarea informaiei O trstur important a msurii informaiei este aceea c permite pstrarea acesteia pe timpul transmiterii, printr-o codificare adecvat, pe baza statisticii sursei mesajului respectiv. Pentru a ilustra acest lucru, s considerm un model de limbaj cu numai patru litere - A, B, C i D cu probabiliti respective de 1/2, 1/4, 1/8 i 1/8. ntr-un text lung n acest limbaj, A va ocupa o jumtate din timp, B un sfert din timp, iar C i D cte o optime. Dac ar fi s codificm acest mesaj n digii binari, respectiv folosind 0 i 1, cel mai direct cod ar fi urmtorul: A = 00; B = 01; C = 10; D = 11. Acest cod necesit doi digii binari pentru fiecare liter a mesajului. Printr-o folosire corect a statisticii, se poare concepe un cod mai bun: A = 0; B = 10; C = 110; D = 111. Desigur, trebuie avut n vedere i recuperarea rapid a mesajului din forma sa codificat. Mai mult, numrul de digii binari folosii este mai mic n acest caz: (1)1/2+(2)1/4+(3)1/8+(3)1/8 = 1 3/4,

2

unde primul termen se datoreaz literei A, care ocup jumtate din timp i are o lungime de un digit, iar n mod similar sunt descrii i ceilali termeni. De fapt, valoarea de 1 3/4 este chiar valoarea lui H, calculat pentru probabilitile de 1/2, 1/4, 1/8 i 1/8. Aceast idee, de codare a literelor mai folosite n mesaje scurte i a celor mai puin folosite n mesaje mai lungi a stat i la baza scrierii codului Morse. Rezultatul gsit pentru cazul de mai sus poate fi considerat ca valabil i pentru cazul general. Dac H este entropia, exprimat n bii/liter, a unei surse de informaie, atunci orice codificare binar care reprezint sursa folosete, n medie, cel puin H digii binari/litera surs. n mod reciproc, pot fi gsite codificri binare folosind un numr de digii binari pe ct posibil mai apropiat de H. Pentru cazul general ns, codificarea devine mai complicat pe msur ce media de digii binari/litera surs se apropie de H. n acest caz, se impune transpunerea de secvene de litere surs n secvene de digii binari i nu codificarea unor litere surs individuale n secvene de digii binari. Aceast trstur important a teoriei informaiei d un sens direct entropiei H pentru o surs de limbaj. De fapt, se poare afirma c H poate fi interpretat ca fiind numrul echivalent de digii binari necesar pentru o codificare n 0 i 1 ct mai eficient a limbajului sau sursei. De exemplu, dac estimarea de un bit/liter, menionat anterior ca fiind rata de codare pentru scriere n englez este corect, atunci este posibil s codificm un masaj (scris n englez) n digii binari folosind, n medie, cte unul pentru fiecare liter din text i, drept urmare, nici o alt metod de codificare nu se va situa sub aceast medie. Tehnicile folosite n mod practic pentru a codifica datele surs cu un numr de bii ct mai redus sunt numite tehnici de compresie a datelor; acestea sunt adesea metode adaptive, ajustnd n mod automat codificarea conform cu statisticile unei surse date. 1.4. Conversia analog - digital Obiectivul esenial al oricrei comunicri de mesaj este acela de a asigura o fidelitate nalt, adic o reproducere ct mai bun a acestuia, fr degradrile impuse de distorsiunile semnalului i de zgomot. n mod curent, informaiile nu sunt transmise n format binar, ci sub forma unor semnale c