Biologie | Chimie | Didactica | Fizica | Geografie | Informatica | |
Istorie | Literatura | Matematica | Psihologie |
Agenti Internet
Una dintre modalitatile spectaculoase prin care agentii se impun comunitatii utilizatorilor de calculatoare este aceea a agentilor Internet, agenti informationali ce ofera servicii Internet inteligente. Tehnologia calculatoarelor a generat o crestere remarcabila a capacitatii de a genera, oferi si stoca informatie. In acelasi timp insa, instrumentele de localizare, filtrare si analiza a informatiei existente nu au inregistrat o crestere corespunzatoare. Desi manipularea directa a informatiei, gen meniuri, butoane si altele, este usoara pentru operatii simple cum ar fi compilarea unui program, editarea de texte sau tiparirea unui fisier, nu acelasi lucru se intampla in cazul accesului si cautarii in retele masive de informstie. Agentii inteligenti Internet sint destinati schimbarii acestei situatii. "Internet Society" estimeaza ca exista peste 30 de milioane de utilizatori care acceseaza zilnic reteaua Internet. Desi exista unii utilizatori care se amuza sa navigheze prin Internet, cei mai multi ar fi foarte bucurosi daca ar putea lasa operatii costisitoare ca timp, cum ar fi aceea de a cauta informatii despre un subiect particular, pe seama unor agenti competenti.
In continuare vom descrie o serie de agenti software inteligenti care exista sau sunt pe cale de a fi implementati, in scopul de a oferi o idee despre ceea ce vor fi agentii Internet. Utilizind metafora de "autostrada a informatiei" (information superhighway), un agent inteligent poate fi vazut ca un ghid al unui autocar cu turisti care sugereaza soferului, la fiecare intersectie, calea de urmat. Sau ca un sofer de taxi care conduce pasagerii la destinatie. Mai mult chiar, agentii inteligenti pot ajunge atat de performanti incat pot ascunde toate detaliile autostrazii informatiei, aceasta devenind transparenta pentru utilizator. Descrierea agentilor Internet ce urmeaza va fi facuta in termeni de functionalitate si nu de arhitectura, dar ei sunt, de cele mai multe ori, modele cognitive de agenti.
Agenti ghizi
O prima categorie de agenti este aceea a agentilor ghizi (tour guides). Multi utilizatori sunt dezorientati in momentul in care vor sa consulte World Wide Web-ul. Un agent care ii poate ajuta in acest domeniu este un agent ghid, agent capabil sa raspunda unei intrebari de tipul "Unde cauti in continuare ?" sau "Ce mai trebuie sa citesc despre un anumit subiect ?". Exista deja diverse implementari de astfel de agenti pentru sisteme hipertertext de dimensiune redusa si exista prototipuri de astfel de sisteme si pentru Web. De exemplu, WebWatcher sfatuieste interactiv utilizatorii Web-ului asupra legaturii urmatoare pe care trebuie s-o urmeze. In plus, WebWatcher incearca sa invete prin observarea reactiei utilizatorului la sfatul primit, utilizatorul fiind evident liber sa nu urmeze sfatul agentului. In consecinta, agentii ghizi au ca scop conducerea utilizatorilor prin Web, oferind in acelasi timp o experienta personalizata fiecarui utilizator.
Agenti index
O alta categorie de agenti Internet este aceea a agentilor index (indexing agents) Acestia sunt deocamdata cei mai populari agenti din retea, prin implementari cum ar fi Lycos, WebCrawler si InfoSeek. Agentii index efectueaza o cautare masiva si autonoma de informatie in Web, putand ajunge sa inspecteze pina la un milion de documente, si creeaza un index de cuvinte gasite in titlurile si textul documentelor inspectate. Utilizatorul poate apoi interoga agentul despre documente ce contin anumite cuvinte cheie. Agentii index pot oferi raspunsuri rapide dar prezinta o serie de limitari. Cautarea unei anumite informatii nu este intotdeauna bine deservita de cuvintele cheie. Utilizatorii pot dori criterii mai complicate. In plus, agentii index nu sunt personalizati, ceea ce poate duce la oferirea unor informatii nerelevante, si nici selectivi in cautarea efectuata. Revenind la metafora autostrazii informatiei, agentii index sunt ca soferii de taxi care te conduc la destinatia dorita dar te depun acolo, fara a se preocupa de ceea ce faci in continuare si nici daca ai ajuns exact acolo unde doreai de fapt.
Agenti FAQ
Reprezinta o alta categorie de agenti Internet, mai selectiva decat cele doua prezentate anterior. Acesti agenti au rolul de a ghida utilizatorul pentru gasirea raspunsurilor la intrebarile frecvente. Utilizatorii au tendinta sa puna mereu aceleasi intrebari asupra unui anumit subiect. Ca urmare, diversele organizatii sau grupuri din Internet au infiintat si dezvoltat o serie de fisiere care contin intrebarile si raspunsurile la ceea ce s-au considerat a fi intrebari frecvent puse asupra unui subiect particular (Frequently Asked Questions files, pe scurt FAQ). Un utilizator ce are acces la Internet poate sa fie destul de sigur ca, daca are o intrebare comuna sau chiar mai putin comuna, poate gasi raspunsul intr-un fisier FAQ, dar este posibil sa fie incapabil sa localizeze fisierul respectiv. Agentii FAQ se ocupa de aceasta problema prin indexarea fisierelor FAQ si ofera, cateodata, chiar si o interfata in limbaj natural pentru punerea intrebarilor. Agentul foloseste textul intrebarii pentru localizarea raspunsului adecvat. Spre deosebire de agentii index, agentii FAQ sunt capabili sa gaseasca raspunsuri numai la intrebarile ce apar in fisierele FAQ pe care le-au indexat. Datorita naturii semistructurate a acestor fisiere si deoarece fisierele FAQ reprezinta o categorie relativ restrinsa in raport cu totalitatea documentelor din WWW, agentii FAQ sunt mult mai eficienti decat agentii index.
Softbot
Un agent inteligent Internet diferit ca natura de agentii descrisi mai sus este agentul Softbot. Numele de Softbot este derivat din "software robot". In locul unui robot mobil cu brate si roti, Softbot-ul este un asistent al utilizatorului capabil de a intelege si executa comenzi si actiuni complexe. Datorita lui cea mai mare parte a structurilor din Internet devin transparente pentru utilizstor. In contrast cu agentii inteligenti care asista utilizatorii in gasirea informatiilor relevante, Softbot-ul accepta scopuri de nivel inalt definite de utilizator si sintetizeaza dinamic secventa de comenzi Internet potrivita pentru sstisfacerea acestor scopuri. Apoi Softbot-ul executa aceasta secventa de comenzi, adunand informatii pentru decizii ulterioare, recuperind erorile si reincercind comenzi, daca aceasta este necesar. Agentul Softbot poate realiza diverse scopuri de nivel inalt in serviciul utilizatorului. El poate monitoriza o serie de evenimente, cum ar fi utilizarea discului, activitatea utilizatorului, buletinele electronice de stiri, servere FTP, si comunica utilizatorului ceea ce a gasit printr-un semnal sonor, un mesaj pe ecran sau un mesaj e-mail. Pe linga filtrarea informatiei, Softbot-ul poate actiona asupra mediului in care lucreaza, de exemplu prin asigurarea compactarii permanente a fisierelor dintr-un director, protejarea fisierelor din altul, etc. De asemenea, Softbot-ul poate realiza automat compilarea fisierelor program, conversia documentelor dintr-un format in oricare altul, accesul la baze date de diverse tipuri, prin apelul, in secventa, a diverselor programe adecvate. Fiindu-i dat numele unei persoane, el poate determina adresa electronica a acesteia printr-o combinatie de comenzi whois, netfind, staffdir, finger si alte utilitare.
Cheia succesului agentilor inteligenti este gradul in care agentii sunt capabili sa inteleaga informatia pe care o manipuleaza. Unul din motivele pentru care agentul Softbot este considerat un succes este focalizarea lui asupra unor informatii structurate de tipul celor amintite anterior.
The next generation
Agentii Internet existenti sunt departe de a fi perfecti si de a indeplini cerintele pe care utilizatorii le pretind de la ei. Programele bazate pe agenti informationali Internet vor evolua spre sisteme multiagent capabile sa integreze abilitatile punctuale descrise mai sus intr-un singur program, combinandu-le si cu alte caracteristici definitorii ale agentilor inteligenti si a sistemelor multiagent. Se presupune ca viitoarea generatie de agenti Internet va fi o combinatie de modele cognitive si reactive, cu structuri organizatorice complexe, care vor avea ca scop atat cresterea eficientei accesului utilizatorului la informatia din Internet cat si transparenta totala a autostrazii informatiei. In acest fel, nu de mai poate garanta accesul nerestrictiv al oricarei categorii de utilizatori, indiferent de calificare si cunostinte, la enorma resursa informationala ce este si va deveni Internet.
Marin Koster, de la firma britanica de software de comunicatii Nexor, intretine o lista de agenti WWW (https://web.nexor.co.uk/mak/doc/robots/robots.html). Aceasta pagina Web mai contine si linii directoare pentru dezvoltarea agentilor precum si trimiteri la unele lucrari ale lui David Eichmann. Multi dintre agentii de indexare isi publica pe WWW indecsii. Lista ii cuprinde pe urmatorii:
JumpStation/JumpStation II Robot - construieste un index de documente dupa titlu, header si subiect. Autor: Jonathan Fletcher (J.Fletcer@stirling.ac.uk).
Lycos - utilizeaza un model finit al WWW pentru a ghida cautari directe. Autor: dr. Michael L. Mauldin, fuzzy@cmu.edu) de la Carnagie Mellon University.
NorthStar Robot - un alt agent de cautare/indexare pentru WWW. Autori: Fred Arrie (barie@unr.edu) si Billy Brown.
Repository-Based Software Engeneering Project Spider. Agent si indexor, traverseaza WWW-ul si indexeaza textul complet a documentelor gasite. Autor: dr. David Eichmann (eichmann@rbse.jsc.nasa.gov).
WebCrawler - creaza un index pe baza continutului documentelor gasite in WWW si indeplineste cereri specifice de cautare. Autor: Brian Pinkerton, (bp@biotech.aeshington.edu)
W4 (World Wide Web Wanderer) - masoara cresterea WWW-ului. Autor: Matthew, Gray (mkgray@mit.edu)
User profile/goals URL
cache
Cererea tot mai mare de instrumente de extragere si filtrare a informatiei pe Internet a dat nastere unei multimi de agenti denumiti WebCrawlers, Spiders si Robots. Unii dintre acestia incearca sa ofere o imagine unitara a Internet-ului, dar cei mai comuni, reprezentati aici ca Service Agents, calatoresc in WWW si apoi raporteaza ce au gasit. Spider -ul (paianjen) este un indexor care examineaza documente HTML cu ajutorul unui "mite" (capusa) care extrage URL-urile. Indexorul foloseste apoi URL-urile din baza de date pentru a aduce documentele, pentru a le indexa si a stoca rezultatele in baza de date.
Copyright © 2024 - Toate drepturile rezervate