Grille IA Blanao 2024 Exam Paper PDF
Document Details
Uploaded by TruthfulVector
Blanao
2024
Tags
Summary
This is an artificial intelligence exam paper for 2024, from Blanao school. The paper covers various topics like problem solving algorithms, and different types of AI algorithms. It includes multiple choice and short questions.
Full Transcript
GRILE IA BLANAO INVATAT 2024 1. Cum se poate defini inteligența? a. Capacitatea de a rezolva teste de inteligență lingvistică, logico-matematică și spațială b. Capacitatea de a face observații complexe asupra mediului c. O măsură a capacității de a atinge...
GRILE IA BLANAO INVATAT 2024 1. Cum se poate defini inteligența? a. Capacitatea de a rezolva teste de inteligență lingvistică, logico-matematică și spațială b. Capacitatea de a face observații complexe asupra mediului c. O măsură a capacității de a atinge scopuri într-un mediu complex și dinamic d. Capacitatea de a stoca și refolosi informații 2. Care din următoarele afirmații reprezintă o diferență validă între reprezentările STRIPS și ADL? a. STRIPS permite operatorul egalitate; ADL nu b. STRIPS respectă presupunerea lumii închise (closed world assumption) – termenii neprecizați sunt falși; ADL respectă presupunerea lumii deschise (open world assumption) – termenii neprecizați sunt necunoscuți c. STRIPS permite formule predicative; ADL permite numai formule propoziționale d. STRIPS permite termeni pozitivi și negativi; ADL permite numai termeni pozitivi 3. Care din metodele de mai jos se folosește în mod normal pentru rezolvarea unor probleme de optimizare? a) Algoritmul Q-Learning b) Algoritmii evolutivi c) Algoritmul rezoluției d) Algoritmul FF (Fast-Forward) 4. Călirea simulată (simulated annealing) este: a) Un algoritm de învățare cu întărire b) Un algoritm de optimizare c) Un algoritm de planificare d) Un algoritm de inferență predicativă 5. Fie următoarele două propoziții: (A sau B), respectiv (non A sau C). Ce concluzie se poate trage aplicând rezoluția propozițională? a) A sau C b) B sau C c) A și non A - o contradicție d) A sau non A - o tautologie 6. Care sunt avantajele planificării cu ordine parțială față de planificarea cu ordine totală? a) În planificarea cu ordine parțială, se rezolvă euristic o variantă simplificată a problemei de planificare b) În planificarea cu ordine parțială, se poate profita de descompunerea problemei: se rezolvă independent subscopurile și apoi se combină subplanurile c) În planificarea cu ordine parțială, pentru atingerea unui scop, se caută ce ar fi putut fi adevărat într-o stare anterioară d) În planificarea cu ordine parțială, se permit efecte condiționale și teste de egalitate 7. Care dintre următoarele afirmații reprezintă o diferență corectă între sistemele de inferență vagă (fuzzy) Mamdani și Sugeno? a) Metoda Mamdani permite descrierea mai intuitivă a cunoștințelor; metoda Sugeno este mai eficientă computațional b) Metoda Mamdani este mai potrivită pentru probleme de control, în special pentru sisteme neliniare dinamice c) Metoda Sugeno este mai potrivită pentru probleme cu un număr mic de premise d) Metoda Sugeno permite descrierea mai intuitivă a cunoștințelor; metoda Mamdani este mai eficientă computațional 8. Care din următoarele metode permite inferențe bazate pe probabilități? a) Algoritmul de optimizare de tip roi de particule (Particle Swarm Optimization, PSO) b) Algoritmul rezoluției propoziționale sau predicative c) Logica vagă (fuzzy) d) Rețelele bayesiene 9. Care este scopul unui perceptron cu un singur strat? a) Clasificator pentru n clase prin găsirea unui hipervolum care le separă b) Clasificator pentru 2 clase prin găsirea unui hipervolum care le separă c) Clasificator pentru 2 clase prin găsirea unui hiperplan care le separă d) Clasificator pentru n clase prin învățarea clasei de apartenență a fiecărei instanțe 10. Care este structura unui perceptron multi-strat? a) Mai multe straturi de neuroni interconectați, fiecare neuron calculează suma ponderată a intrărilor, rezultatului i se aplică o funcție de activare neliniară și apoi se adăugă un termen suplimentar b) Mai multe straturi de neuroni interconectați, fiecare neuron calculează suma ponderată a intrărilor la care se adăugă un termen suplimentar și apoi rezultatului i se aplică o funcție de activare neliniară c) Mai multe straturi de neuroni interconectați cu funcții de activare liniare d) Mai multe straturi de neuroni interconectați, asupra fiecărei intrări a neuronilor se aplică o funcție de activare neliniară, se face suma ponderată a rezultatelor la care se adăugă un termen suplimentar 11. Care este ideea de bază a clasificării folosind mașini cu vectori suport? a) Maximizarea marginii de separare între cele două clase b) Determinarea clasei C care maximizează probabilitatea condiționată a lui C, date fiind valorile atributelor instanței care trebuie clasificată c) Utilizarea claselor vecinilor pentru a determina clasa instanței care trebuie clasificată d) Minimizarea erorii în raport cu ponderile, cu ajutorul gradientului descendent 12. Algoritmul Q-Learning este: a) Un algoritm de inferență folosit în logica vagă (fuzzy) b) Un algoritm de inferență probabilistică pentru rețele bayesiene c) Un algoritm pentru probleme de satisfacere a constrângerilor d) Un algoritm de învățare cu întărire 13. În 1943, contribuția cercetătorilor McCulloch și Pitts în domeniul inteligenței artificiale a fost: a) Un model neuronal b) Logica predicativă c) Logica vagă (fuzzy) d) Un program de șah 14. Termenul de „inteligență artificială” a fost propus în anul: a) 1966 b) 1976 c) 1956 d) 1946 15. Cine a inventat limbajul Lisp în anul 1958: a) Marvin Minsky b) Allen Newell c) Alain Colmerauer d) John McCarthy 16. Ce tip de programe de inteligență artificială au fost primele utilizate cu succes în industrie? a) Sistemele expert b) Algoritmii genetici c) Rețelele neuronale d) Sistemele de traducere automată 17. Ce sistem expert din anii ’70 a fost utilizat în diagnosticarea medicală? a) XCON b) Dendral c) Mycin d) Prospector 18. Care a fost primul program ce a încercat să treacă testul Turing? a) NetTalk b) Alice c) Cyc d) Eliza 19. Cine a redescoperit în anul 1986 algoritmul retro-propagării (backpropagation)? a) Bryson și Ho b) Rumelhart, Hinton și Williams c) Hebb d) Hopfield 20. Unde a fost realizat Deep Blue, care l-a învins la șah pe Gari Kasparov în 1997? a) MIT b) Stanford c) Princeton d) IBM 21. Unde a fost realizat AlphaGo, care l-a învins la go pe Lee Sedol în 2016? a) IBM b) Stanford c) Google DeepMind d) MIT 22.Fie problema sortării crescătoare a unei liste de n valori numerice cu restricția că nu putem schimba poziția unui element din listă decât cu a unui element vecin. Se folosește euristica: h(s) = n – numărul de perechi de elemente din listă care nu sunt în ordine crescătoare. Pentru instanța (3, 5, 1, 2), care din următoarele afirmații este adevărată? a. Algoritmul hill-climbing nu găsește soluție b. Algoritmul greedy nu găsește soluție c. Algoritmul greedy găsește o soluție la fel de bună ca hill-climbing d. Algoritmul greedy găsește o soluție mai bună decât hill-climbing 23.Care este relația dintre cunoaștere și inteligență? a. Sunt independente b. Raportul dintre inteligență și cunoaștere este constant c. Sunt identice d. Inteligența ajută la construirea cunoașterii 24. Care este efectul scalării funcției de adaptare (fitness): f’(i) = f(i) – b, când b < 0? a. Scade presiunea selectivă, favorizează indivizii cu adaptare medie și este potrivită în situația convergenței lente b. Crește presiunea selectivă, favorizează indivizii foarte adaptați și este potrivită în situația convergenței lente c. Crește presiunea selectivă, favorizează indivizii foarte adaptați și este potrivită în situația convergenței premature d. Scade presiunea selectivă, favorizează indivizii cu adaptare medie și este potrivită în situația convergenței premature 25. Ce se poate spune despre fazele algoritmului de retro-propagare (backpropagation)? a. În prima fază, rețeaua învață folosind funcții de activare neliniare pentru neuroni, precum sigmoida unipolară sau sigmoida bipolară. În a doua fază, rețeaua folosește funcții de activare liniare pentru a clasifica vectorul de intrare b. În prima fază, rețeaua învață folosind funcții de activare liniare pentru neuroni. În a doua fază, rețeaua folosește funcții de activare neliniare, precum sigmoida unipolară sau sigmoida bipolară, pentru a clasifica vectorul de intrare c. În prima fază, rețeaua calculează gradienții folosiți pentru ajustarea ponderilor rețelei. În a doua fază, rețeaua își modifică ponderile și clasifică vectorul de intrare d. În prima fază, rețeaua primește vectorul de intrare și propagă semnalul înainte, strat cu strat, până se generează ieșirea. În a doua fază, semnalul de eroare este propagat înapoi, de la stratul de ieșire către stratul de intrare, iar gradienții calculați sunt folosiți pentru ajustarea ponderilor rețelei 26. După unificarea expresiilor f(A, h(A), B) și f(g(C), D, C), cât este h(g(B)) a. C b. A c. Expresiile nu pot fi unificate d. B e. D 27. Pentru problema "Turnurile din Hanoi" (https://en.wikipedia.org/wiki/Tower_of_Hanoi) cu n tije și m piese, folosind algoritmul A*, indicați valoarea cea mai bună a stărilor generate după ce a fost făcut un prim pas de căutare. Euristica folosită este: h(s) = m – numărul de piese de pe tija destinație. a. m–1 b. 1 c. n d. 0 e. m 28. Cum se realizează mutația în algoritmul de evoluție diferențială? a. Se modifică genele unui individ cu o fracțiune din optimul social al vecinătății sale b. Se calculează diferența a doi indivizi, aceasta se înmulțește cu un factor de amplificare, iar rezultatul se adună la un alt individ c. Se modifică fiecare genă a unui individ cu o probabilitate dată de utilizator d. Se modifică genele unui individ cu o fracțiune din nivelul de feromoni depus în iterația anterioară 29. Care este expresia utilizată pentru inferența prin enumerare într-o rețea bayesiană? Se consideră: X – variabila interogată, y – variabilele neobservate, e – variabilele observate, alfa – coeficientul de normalizare. a. B b. A c. C d. D 30. Care din următoarele afirmații este adevărată? a. În cadrul algoritmului de iterare a politicilor, pentru a evalua politicile trebuie rezolvat un sistem de ecuații liniare b. Dacă factorul de actualizare (discount) este aproximativ egal cu 0, recompensele din viitorul îndepărtat sunt cele mai semnificative c. În cadrul algoritmilor de învățare cu întărire, modelul de tranziții este cunoscut d. În cadrul unui proces de decizie Markov, recompensele nu sunt cunoscute 31. Pentru un algoritm evolutiv, cum funcționează selecția de tip ruletă? a. Un părinte se alege cu o probabilitate invers proporțională cu valoarea funcției sale de adaptare (fitness) b. Un părinte se alege cu o probabilitate proporțională cu valoarea funcției sale de adaptare (fitness) c. Un părinte se alege cu o probabilitate proporțională cu indexul său în populația ordonată după valoarea funcției de adaptare (fitness) d. Un părinte se alege ca fiind cel mai adaptat individ dintr-un număr de indivizi selectați aleatoriu din populație 32. Prin ce se caracterizează limbajul F#? a. Prin facilităţile de lucru cu bazele de date b. Prin funcţiile de calcul numeric c. Prin facilităţile de programare funcțională d. Prin facilităţile de programare orientată pe obiecte 33. În ce țară a fost inventat limbajul Prolog?(pag 39) a. SUA b. Marea Britanie c. Germania d. Franța 34. Care este avantajul principal al limbajului Clips (NASA, 1985)? a. motorul de inferență b. funcțiile de calcul numeric c. facilitățile de programare orientată obiect d. strictețea definirii tipurilor de date 35. Cine a propus modelul perceptronului la sfârșitul anilor ‘50?(pag 35) a. Marvin Minsky b. Teuvo Kohonen c. Frank Rosenblatt 36. Cine sunt autorii cărții "Perceptronii" (1969) în care se evidenția imposibilitatea perceptronului de a învăța funcții neseparabile liniar?(pag 36) a. Minsky și Papert b. Rosenblatt și Hopfield c. Rumelhart și Hinton 37. Care este diferenta dintre un proces de decizie Markov si o problema de invatare cu intarire (reinforcement learning)(pag 1104) a. Intr-un proces de decizie Markov tactica (policy) optima se invata, iar intr-o problema de invatare cu intarire se calculeaza b. Intr-un proces de decizie Markov functia recomensa R(s) este necunoscuta, intr-o problema de invatare cu intarire fiind cunoscuta c. Intr-un proces de decizie Markov modelul de tranzitii T(s, a, s’) este cunoscut, intr-o problema de invatare cu intarire nu d. Nu exista nicio diferenta 38. Metoda epsilon-greedy pentru invatarea cu intarire presupune:(pag 112 a. Alegerea ca actiune urmatoare a actiunii optime cunoscute cu probabilitatea eps si a unei actiuni aleatoare cu prob 1-eps b. Alegerea ca actiune urmatoare a actiunii optime cunoscute cu probabilitatea 1-eps si a unei actiuni aleatoare cu prob eps c. Alegerea ca actiune urmatoare a actiunii cu rangul k cu probabilitatea eps*k d. Scaderea progresiva a ratei de exploatare data de probabilitatea eps 39.Ce tip de restrictor fuzzy este redat in figura?(nu se da asa ceva) a. Puterea b. Intensificarea c. Dilatarea d. Concentrarea 40.Care din urmatoarele variante NU este o metoda de evitare a repetarii starilor intr-o problema de cautare neinformata ?(pag 116) a. Evitarea starilor generate anterior, care necesita memorarea tuturor starilor generate b. Evitarea cailor cu bucle, cand starea unui nod este identica cu starea unui nod de pe calea din starea initiala c. Evitarea starilor corespunzatoare nodurilor aflate pe niveluri inferioare nivelului solutiei d. Evitarea intoarcerii in starea din care tocmai s-a plecat, cand starea fiului este identica cu starea parintelui 41.Care este unificarea expresiilor din figura? P(f(X,Z),Y) P(f(g(Y),Z),Y) X/ g(Y), Z/Z, Y/Y Unif(P(f(X,Z),Y), P(f(g(Y),Z),Y)) a. P / P, (X,Z) / (g(Y),Z) b. Expresiile nu pot fi unificate c. X / g(Y), Y/Y, Z/Z d. X/Y si g(W) = W oricare ar fi W 42.Pentru algoritmul Graphplan, ce relatie mutex, din cele de mai jos, este incorecta?(pag 670) a. Negarea termenilor b. Interferenta: un efect al unei actiuni neaga o preconditie a alteia c. Efecte de inconsecventa: un efect al unei actiuni neaga o preconditie a alteia d. Necesitati concurente: o preconditie a unei actiuni neaga o preconditie a alteia 43.Care este utilitatea “trucului nucleului” (kernel trick) pentru o masina cu vectori suport (Support Vector Machine)?(pag 1020) a. Determina multiplicatorii langrangieni care sunt toti 0 cu exceptia celor corespunzatori vectorilor suport, iar numarul vectorilor suport este mult mai mic decat numarul de dimensiuni al instantelor b. Nu este nevoie sa calculam explicit trasaturile instantelor, iar calcularea nucleului unei perechi de instante este mult mai simpla c. Asigura calcularea marginii optime de clasificare fara a mai utiliza problema duala d. Afirma urmatoarele: conditia necesara si suficienta ca un nucleu real sa fie valid este ca matricea nucleului sa fie simetrica si pozitiv definita 44. In inferenta fuzzy de tip Mamdani, cum se determina matricea R? a. Rij = aj * bi b. Rij = min(aj,bi) c. Rij = ai * bj d. Rij = min(ai,bj) 45.Care este utilizarea corectiei Laplace in metoda de clasificare bayesiana naiva? a. Asigura minimizarea arborelui de decizie rezultat b. Evita anularea produsului de probabilitati cauzata de un factor nul c. Evita problemele asociate termenului 0*log(0) in calculul entropiei multimii de instante d. Accelereaza gasirea instantei celei mai apropiate de instanta de test 46.In procesul de transformare a unei formule predicative in Forma Normal Conjuctiva, care este pasul urmator dupa mutarea tuturor cuantificatorilor la stanga formulei, fara a le schimba ordinea relativa?(pag 513) a. Eliminarea cuantificatorilor existentiali prin Skolemizare b. Standardizarea variabilelor, astfel incat fiecare cuantificator sa dispuna de propria variabila c. Transformarea formulei intr-o conjuctie de disjunctii d. Eliminarea cuantificatorilor universali 47.Care a fost scopul initial al sistemelor Lindenmeyer?(pag 1172) a. Modele de auto-organizare pt probleme de gasirea si optimizarea rutei b. Modele matematice ale evolutiei celulalelor automate c. Modele matematice pentru cresterea plantelor d. Modele matematice pentru simularea unui stol de pasari 48.Care este formula de actualizare in algoritmul Q-Learning? (pag 1130) a. F1 b. F4 c. F2 d. F3 49.Testul Turing este un exemplu de abordare a inteligenței artificiale din perspectiva:(pag 19-20) a. Acțiunii umane b. Actiunii rationale c. Gandirii rationale d. Gandirii umane 50.Care este presupunerea STRIPS care evita problema cadrului(frame problem)?(pag 630) a. Presupunerea lumii deschide (open world assumption)-termenii neprecizati sunt necunoscuti b. Considerarea termenilor atat pozitivi cat si negativi c. Adaugarea explicita a unor axiome de cadru d. Orice termen care nu este mentionat in efect ramane neschimbat 51.In cazul unui joc de factor de ramificare variabil si necesitate de cautare pe multe niveluri, in care dorim totusi sa avem la un moment de timp dat o mutare disponibila, chiar daca nu mutarea optima, ce strategie alegem? a. Continuarea euristica b. Cautarea iterativa in adancime c. Limitarea numarului de niveluri d. Cautarea secundare 52.Cum pot fi rezolvate probleme neseparabile liniar cu ajutorul masinilor cu vectori suport? a. Se utilizeaza valoarea 0 pentru parametrul de cost C b. Se aplica un nucleu care transforma datele intr-un spatiu multidimensional, unde acestea devin liniar separabile c. Masinile cu vectori suport nu pot rezolva probleme neseparabile liniar d. Se permite ca hiperplanul de separare sa aiba margini flexibile (soft margins) si sa existe erori admise de clasificare 53.Care este caracteristica unei cautari “best-first”? a. Ordoneaza nodurile frontierei in functie de f(n)= g(n) + h(n), unde g(n) este costul celei mai bune cai gasite pana la n, iar h(r) este estimarea costului caii de la n la un nod scop b. Ordoneaza nodurile frontierei in ordinea crescatoare a costului estimat pana la un nod scop c. Nodurile noi sunt inserate la inceputul frontierei: lista e o stiva d. Nodurile noi sunt inserate la sfarsitul frontierei: lista e o coada 54.Fie urmatoare metode de invatare cu intarire pasiva:Estimarea directa a utilitatii (EDU), Programarea dinamica adaptiva (PDA) si Invatarea diferentelor temporale (IDT). Care din urmatoarele afirmatii este adevarata? a. IDT converge mai repede decat PDA b. IDT combina EDU cu corectiile date de ecuatia Bellman c. EDU presupune rezolvarea unui sistem de ecuatii liniare de ordin n, unde n este numarul de stari ale mediului d. PDA nu are nevoie de model, IDT este bazata pe model 55.Care sunt nivelurile ierarhiei/piramidei cunoasterii? a. Date - Informatii - Cunostinte - Intelepciune b. Date - Zgomote - Informatii - Intelepciune c. Date - Cunostinte - Informatii - Intelepciune d. Informatii - Cunostinte - Date - Intelepciune 56.Pentru un algoritm evolutiv, cum functioneaza selectia de tip competitie (engl. “tournament”)? a. Un parinte se alege cu o probabilitate proportionala cu valoarea functiei sale de adaptare (fitness) b. Un parinte se alege ca fiind cel mai adaptat individ dintr-un numar de indivizi selectati aleatoriu din populatie c. Un parinte se alege cu o probabilitate invers proportionala cu valoarea functiei sale de adaptare (fitness) d. Un parinte se alege cu o probabilitate proportionala cu indexul sau in populatia ordonata dupa valoarea functiei de adaptare(fitness) 57.Ce proprietati are algoritmul Kohonen? a. Reducerea dimensionalitatii fara pastrarea topologiei b. Reducerea dimensionalitatii si pastrarea topologie c. Gasirea marginii celei mai largi intre doua clase d. Pastrarea topologiei si gasirea marginii celei mai largi intre doua clase 58.Care este ordinea operatorilor genetici pentru algoritmul de evolutie diferentiala? a. Selectie, mutatie, incrucisare b. Incrucisare, selectie, mutatie c. Mutatie, incrucisare, selectie d. Selectie, incrucisare,mutatie 59.Ce semnificatie are ecuatia Bellman? a. Utilitatea unei stari rezulta din ajustarea cu precadere a starilor al caror succesori probabil tocmai au suferit o modificare mare a utilitatilor estimate b. Utilitatea unei stari este recompensa imediata pentru acea stare plus utilitatea asteptata maxima a starii urmatoare c. Utilitatea unei stari este media utilitatilor starilor succesoare d. Daca o actiune este in mod evident mai buna decat toate celelalte, se ignora valorile exacte ale utilitatilor 60.Fie clauzele (a sau b sau c) si ( not a sau not b sau d). Care sunt rezolventii rezultati prin algoritmul de rezolutie propozitionala? a. (a sau b sau c sau d) b. (b sau c sau notb sau d) si (a sau c sau nota sau d) c. (c sau d) d. Multimea vida 61.Care este structura unui perceptron multistrat? //se repeta cu 10 a. Mai multe straturi de neuroni interconectati, fiecare din ei calculeaza suma ponderata a intrarilor la care se adauga un termen constant si apoi rezultatului i se aplica o functie de activare neliniara b. Mai multe straturi de neuroni interconectati, asupra fiecaruia din ei se aplica o functie de activare neliniara, se face suma ponderata a rezultatelor la care se adauga un termen constant c. Un strat de functii de baza radiala urmat de un strat cu functii liniare d. Mai multe straturi de neuroni interconectati, fiecare din ei calculeaza suma ponderata a intrarilor, rezultatului i se aplica o functie de activare neliniara si apoi se adauga un termen constant 62.Care este regula de baza a invatarii hebbiene? a.Creșterea capacității de generalizare a unui model de clasificare prin maximizarea marginii care separa 2 clase b.Dacă doi neuroni conectați sunt activati in același timp, ponderea conexiunii dintre ei creste. Dacă doi neuroni sunt activati in contratimp, ponderea conexiunii dintre ei scade. c.Modificarea ponderilor conexiunior dintre neuroni pe baza propagarii diferentiale a erorii dintre iesirea dorita si iesirea efectiva a retelei d.Dacă doi neuroni conectați sunt activati in același timp, ponderea conexiunii dintre ei scade. Dacă doi neuroni sunt activati in contratimp, ponderea conexiunii dintre ei Creste. 63. Fie clauzele (a SAU b SAU c) si (NON d SAU NON c SAU a). Care sunt rezolventii rezultati prin algoritmul de rezolutie propozitionala? a.Rezultatul nu este valid deoarece rezulta un literal duplicat b.(a SAU b SAU c) SI NON (c SAU d) c.Multimea vida d. a SAU b SAU NON d e. a SAU b SAU c SAU NON c SAU NON d f. Clauza a doua nu este corecta deoarece literalii nu sunt sortati alfabetic 64.Care este ideea de baza a algoritmului de verificare inainte (forward checking)? a.Se selecteaza de fiecare data variabila cu cei mai putini vecini fara valori atribuite b.Se selecteaza aleatoriu o variabila care violeaza constrangerile si i se atribuie valoarea care minimalizeaza numarul de constrangeri violate c.Se selecteaza de fiecare data variabila cu cei mai multi vecini fara valori atribuite d.Când se atribuie o valoare în procesul de căutare, se actualizează mulțimile de valori permise pentru toate variabilel 65.Ce forma de reprezentare a cunoasterii se utilizeaza in figura? a.Retele semantice sortate b.Scenarii c.Cadre d.Retele semantice 66.Care este ideea de bază a algoritmului “particle swarm optimization”? a). Viteza fiecarei particule este o medie ponderata a vitezelor vecinilor b). Viteza fiecarei particule creste proportional cu valoarea functiei sale obiectiv c). Viteza fiecarei particule creste invers proportional cu valoarea functiei sale obiectiv d). Viteza fiecarei particule este actualizata pe baza unei componente cognitive, calculata cu ajutorul optimului personal al particulei, si a unei componente sociale, calculata cu ajutorul optimului social, al vecinatatii particulei 67.Care este rolul temperaturii in algoritmul de calire simulata (simulated annealing)? a.Cand temperatura este mare, este mai mare probabilitatea de a accepta o solutie vecina inferioara b.Cand temperatura este mare, este mai mica probabilitatea de a accepta o solutie vecina superioara c.Cand temperatura este mica, este mai mare probabilitatea de a accepta o solutie vecina inferioara d.Cand temperatura este mica, este mai mica probabilitatea de a accepta o solutie vecina superioara 68.Care sunt avantajele abordarii inteligentei artificiale din perspective actiunilor rationale? a.Programele nu trebuie doar sa rezolve probeme, ci sa le rezolve in acelasi mod ca oamenii, permite construirea de sisteme care functioneaza intern in mod similar cu mintea omeneasca b.Comportamentul este observabil si mai usor de testat stiintific decat géndirea, iar rationalitatea este clar definite”: prin actiuni optime. c.Folosirea logicii pentru a lua decizii complexe, formalizare riguloasa, putere de reprezentare si raționament d.Un program care manipuleaza simboluri intelege, are stari mentale si intentii 69. De ce perceptronul multi-strat nu are functii de activare liniare? a. functiile de activare liniare si neliniare determina rezultate echivalente pentru perceptronul multi-strat b. datorita progresului tehnologic, functiile exponentiale care pot fi utilizate acum pentru perceptronul multi-strat erau imposibil de utilizat practic in anii '50 pentru perceptronul cu un singur strat c. functiile liniare nu asigura o crestere a puterii de calcul in raport cu retelele cu un singur strat, deoarece o functie liniara de functii liniare este tot o functie liniara d.Perceptronul multi-strat are functii de activare neliniare 70.Daca wi este ponderea conexiunii i la momentul k, alfa este rata de invatare, t este iesirea dorita, a este iesirea reala si xi este intrarea i, care este regula de actualizare a ponderilor unui perceptron cu un singur strat? a. wi(k+1) = wi(k) * xi(k) + alfa(k) *[ t(k) – a(k)]*xi(k) b. wi(k+1) = wi(k) + alfa *[t(k) – a(k)]*xi(k) c. wi(k+1) = wi(k) * xi(k) + alfa(k) *[a(k) – t(k)]*xi(k) d. wi(k+1) = wi(k) * xi(k) + alfa *[t(k) – a(k)]*xi(k) 71.Functia XOR: a) poate fi invatata de un perceptron multistrat b) nu poate fi invatata de o retea neuronala c) poate fi invatata de un perceptron cu un singur strat 72. Care este iesirea unui perceptron cu un singur strat? a) functia sigmoida aplicata intrarii cu ponderea cea mai mare b) functia Heaviside aplicata sumei intrarilor ponderate c) functia sigmoida aplicata sumei intrarilor ponderate 73. Care este avantajul perceptronului in comparatie cu Adaline? a) algoritmul perceptronului converge si atunci cand clasele nu sunt liniar separabile b) perceptronul garanteaza clasificarea corecta a 2 clase liniar separabile c) perceptronul functioneaza numai pentru iesiri binare 74. Care este metoda de antrenare a unui neuron Adaline? a) backpropagation b) trial and error c) regula delta (least mean square) 75. Pe ce principiu se bazeaza algoritmul least mean square? a) minimizarea patratelor ponderilor b) minimizarea erorii patratice medii dintre iesirea dorita si cea reala c) minimizarea iesirii neuronului 76. Daca wi(k) este ponderea conexiunii i la momentul k, alfa este rata de invatare, t este iesirea dorita, a este iesirea reala si xi este intrarea i, care este regula de actualizare a ponderilor unui neuron Adaline? a) wi(k+1) = wi(k) + alfa * [t(k) - a(k)] * xi(k) b) wi(k+1) = wi(k) * xi(k) + alfa(k) * [t(k) - a(k)] * xi(k) c) wi(k+1) = wi(k) * xi(k) + alfa * [t(k) - a(k)] * xi(k) 77. Care din urmatoarele caracteristici nu sunt avantaje ale neuronului Adaline in comparatie cu perceptronul? a) Adaline suporta iesiri reale iar perceptronul numai iesiri binare b) Adaline converge catre solutie destul de repede, chiar si atunci cand clasele nu sunt liniar separabile c) Adaline garanteaza separarea a 2 clase liniar separabile 78. Care este topologia Madaline? a) doua straturi de neuroni, primul format din neuroni Adaline cu functie Heaviside aplicata iesirilor, iar al doilea cu porti logice b) mai multe straturi de neuroni Adaline c) mai multe straturi de neuroni Adaline cu functie Heaviside aplicata iesirilor, impreuna cu un strat cu porti logice 79. In topologia Madaline, care este diferenta dintre ponderile portii logice si ponderile Adalinelor? a) nici o diferenta, toate ponderile sunt ajustabile b) ponderile Adalinelor sunt fixe, iar ponderile portii logice sunt ajustabile c) ponderile portii logice sunt fixe, iar ponderile Adalinelor sunt ajustabile 80. La antrenarea unei retele Madaline, care este ordinea recomandata de prezentare a vectorilor de intrare? a) ordine aleatorie, deoarece ordinea ciclica poate impiedica convergenta b) ordine ciclica, deoarece ordinea aleatorie poate impiedica convergenta c) nu are nici o importanta ordinea de prezentare 81. Ce inseamna principiul celei mai mici perturbatii in procesul de invatare a unei retele neuronale? a) ponderile trebuie ajustate astfel incat sa se reduca eroarea la iesire pentru vectorul de intrare curent cu o perturbatie minima asupra raspunsurilor deja invatate b) ponderile trebuie ajustate astfel incat eroarea la iesire sa fie redusa cu o cantitate cat mai mica astfel incat sa nu fie perturbata reteaua c) ponderile trebuie ajustate cu o cantitate cat mai mica astfel incat sa nu fie perturbata reteaua 82. Care sunt modalitatile in care algoritmul de invatare Madaline respecta principiul celei mai mici perturbatii? a) se alege numarul minim de Adaline care ar putea influenta schimbarea iesirii, se aleg Adalinele cu iesirea negativa iar ponderile sunt modificate in directia vectorului de intrare b) se alege numarul maxim de Adaline care ar putea influenta schimbarea iesirii, se aleg Adalinele cu iesirea cat mai mica iar ponderile sunt modificate in directia vectorului de intrare c) se alege numarul minim de Adaline care ar putea influenta schimbarea iesirii, se aleg Adalinele cu iesirea cat mai apropiata de zero iar ponderile sunt modificate in directia vectorului de intrare 83. Care este diferenta dintre retelele Learning Vector Quantization si hartile cu auto-organizare (SOM)? Self Organizing Map a) LVQ si SOM reprezinta acelasi lucru b) LVQ este o metoda de invatare supervizata c) LVQ este o metoda de invatare nesupervizata 84. Cum se utilizeaza retelele Learning Vector Quantization pentru clasificare? a) spatiul vectorilor de intrare se divide in regiuni disjuncte de arii egale, delimitate de hiperplane; un vector de intrare este etichetat cu clasa regiunii in care este inclus b) spatiul vectorilor de intrare se divide in regiuni disjuncte, fiecare cu un vector prototip; un vector de intrare este etichetat cu clasa celui mai apropiat vector prototip c) LVQ nu se pot folosi pentru clasificare deoarece sunt metode nesupervizate 85. Cum se utilizeaza retelele Learning Vector Quantization pentru compresie de date? a) spatiul vectorilor de intrare se divide in regiuni disjuncte, fiecare cu un vector prototip; un vector de intrare este inlocuit cu indexul vectorului prototip cel mai apropiat b) LVQ nu se pot folosi pentru compresie de date, intrucat nu este o metoda de compresie exacta; ar trebui sa existe la fel de multe prototipuri cat vectori de intrare c) spatiul vectorilor de intrare se divide in regiuni disjuncte de arii egale, delimitate de hiperplane; un vector de intrare este inlocuit cu indexul vectorului prototip cel mai apropiat 86. Daca Wi(t) este vectorul de ponderi al neuronului castigator la momentul t, Xj este vectorul de intrare, alfa este rata de invatare, cum se realizeaza actualizarea ponderilor in procesul de invatare al unei retele Learning Vector Quantization? a) Wi(t+1) = Wi(t) + alfa * ( Xj - Wi(t) ) b) Wi(t+1) = Wi(t) - alfa * ( Xj - Wi(t) ) daca Xj si Wi apartin aceleiasi clase si Wi(t+1) = Wi(t) + alfa * ( Xj - Wi(t) ) daca Xj si Wi apartin la clase diferite c) Wi(t+1) = Wi(t) + alfa * ( Xj - Wi(t) ) daca Xj si Wi apartin aceleiasi clase si Wi(t+1) = Wi(t) - alfa * ( Xj - Wi(t) ) daca Xj si Wi apartin la clase diferite 87. Ce aduce in plus modelul LQV2 fata de LVQ? a) se considera si urmatorul cel mai apropiat vecin, in conditiile in care cel mai apropiat vecin Wi apartine aceleiasi clase cu vectorul de intrare X, urmatorul cel mai apropiat vecin Wj apartine altei clase in comparatie cu X iar X apartine une ferestre definite de planul bisector al segmentului care uneste Wi si Wj b) se considera si urmatorul cel mai apropiat vecin, in conditiile in care cel mai apropiat vecin Wi si urmatorul cel mai apropiat vecin Wj apartin aceleiasi clase cu vectorul de intrare X c) se considera si urmatorul cel mai apropiat vecin, in conditiile in care cel mai apropiat vecin Wi apartine altei clase in comparatie cu vectorul de intrare X, urmatorul cel mai apropiat vecin Wj apartine aceleiasi clase cu X iar X apartine une ferestre definite de planul bisector al segmentului care uneste Wi si Wj 88. Ce fenomene cognitive considera Grossberg ca explica modelele Instar si Outstar? a) invatare pavloviana, invatare hebbiana, repetarea imbunatateste rezultatele, repetarea excesiva nu este necesara b) la intrari apropiate corespund iesiri apropiate iar la iesiri mult diferite corespund iesiri mult diferite c) invatare pavloviana, invatare hebbiana, cu cat se repeta mai mult rezultatele sunt mai bune 89. Care sunt avantajele modelului CMAC (cerebellar model articulation controller)? a) procedura de hashing care mapeaza memoria virtuala in memorie reala este intotdeauna exacta, fapt ce accelereaza invatarea b) proprietatea de generalizare locala faciliteaza descoperirea de relatii globale in spatiul intrarilor c) este un model viabil pentru sarcini de control complexe, algoritmul de invatare este mult mai rapid decat backpropagation 90. Care este cel mai utilizat tip de retea neuronala? a) hartile cu auto-organizare b) perceptronul multistrat c) memoria asociativa 91. Ce inseamna conectarea feedforward a neuronilor intr-un perceptron multistrat? a) interconectarile formeaza bucle b) neuronii sunt total conectati (fiecare cu fiecare) c) interconectarile nu formeaza bucle 92. Cum se numesc retelele perceptron multistrat in care interconectarile formeaza una sau mai multe bucle? a) recurente b) feedforward c) stratificate 93. Care este expresia functiei sigmoide unipolare (functia logistica)? a) S(s) = 1 / (1 + exp(-s) ) b) S(s) = 1 / (1 + exp(s) ) c) S(s) = (1 - exp(-2s) ) / (1 + exp(-2s) ) 94. Care este expresia functiei sigmoide bipolare (tangenta hiperbolica)? a) S(s) = (1 - exp(-2s) ) / (1 + exp(-2s) ) b) S(s) = 1 / (1 + exp(-s) ) c) S(s) = 1 / (exp(s) + exp(-s) ) 95. Cum se realizeaza antrenarea unui perceptron multistrat? a) prin modificarea modului de interconectare a neuronilor b) prin modificarea ponderilor conexiunilor si a valorilor prag ale neuronilor c) prin modificarea valorilor neuronilor care retin informatiile 96. Ce sunt straturile ascunse ale unui perceptron multistrat? a) straturi interne retelei care nu participa direct la antrenare b) straturi interne retelei, nici de intrare si nici de iesire c) straturi interne retelei care sunt parcurse uneori de semnale dinspre intrare spre iesire 97. Care este ideea care sta la baza algoritmului backpropagation? a) minimizarea erorii (diferentei dintre iesirea dorita si iesirea reala) in raport cu ponderile prin metoda gradientului descendent b) minimizarea ponderilor conexiunilor prin metoda gradientului descendent c) minimizarea ponderilor conexiunilor in doua etape: una de propagare inainte si una de propagare inapoi 98. Pentru aplicarea algoritmului backpropagation, care este derivata functiei sigmoida unipolara? a) S'(s) = (1 - S(s) ) * (1 + S(s) ) b) S'(s) = S(s) * (1 - S(s) ) c) S'(s) = 1 - S(s) 99. Pentru aplicarea algoritmului backpropagation, care este derivata functiei tangenta hiperbolica? a) S'(s) = (1 - S(s) ) * (1 + S(s) ) b) S'(s) = S(s) * (1 - S(s) ) c) S'(s) = 1 + S(s) 100. In algoritmul backpropagation, cum se calculeaza gradientii erorilor pentru neuronii din stratul de iesire (delta_k), daca S' este derivata functiei de activare, ek(t) este eroarea la momentul t iar wjk(p) sunt ponderile conexiunilor dintre stratul ascuns si cel de iesire? a) delta_k(t) = S' / ek(t) b) delta_k(t) = S' * ek(t) c) delta_k(t) = ek(t) * wjk(t) 101. In algoritmul backpropagation, cum se calculeaza gradientii erorilor pentru neuronii din stratul ascuns (delta_j), daca S' este derivata functiei de activare, delta_k sunt gradientii erorilor pentru neuronii din stratul de iesire, wjk(t) sunt ponderile conexiunilor dintre stratul ascuns si cel de iesire la momnetul t iar l este numarul de iesiri ale retelei (notam suma cu i de la 1 la n din ai cu sum{i,1,n} (ai) )? a) delta_j(t) = S' * sum{k,1,l} (delta_k(t) * wjk(t) ) b) delta_j(t) = S' * wjk(t) c) delta_j(t) = S' * delta_k(t) 102. Ce reprezinta algoritmul backpropagation stohastic? a) o varianta a algoritmului backpropagation standard in care actualizarea ponderilor se face numai pentru anumiti vectori de intrare, dupa o distributie de probabilitate b) o varianta a algoritmului backpropagation standard in care actualizarea ponderilor nu se face o singura data, la sfarsitul unei epoci de antrenare, cu ajutorul gradientilor corespunzatori fiecarei conexiune, ci in timp real, dupa prezentarea fiecarui vector de intrare c) o varianta a algoritmului backpropagation standard in care actualizarea ponderilor se face o singura data, la sfarsitul unei epoci de antrenare, cu ajutorul gradientilor corespunzatori fiecarei conexiune, si nu in timp real, dupa prezentarea fiecarui vector de intrare 103. Care este impedimentul cel mai important al algoritmului backpropagation? a) nu converge pentru probleme complexe de dimensiuni mari b) deoarece se bazeaza pe metoda gradientului descendent, poate converge intr-un minim local al functiei de eroare pe care incearca sa o minimizeze c) restrictiile impuse pentru valorile ratei de invatare 104. Cum se justifica proprietatea perceptronului multistrat de "aproximator universal"? a) s-a demonstrat ca un perceptron multistrat poate aproxima orice functie polinomiala b) s-a demonstrat ca o retea (posibil infinita) cu un singur strat ascuns este capabila sa aproximeze orice functie continua c) s-a demonstrat ca un perceptron multistrat poate aproxima orice functie derivabila datorita algoritmului backpropagation 105. Prin ce se caracterizeaza metoda momentului de accelerare a invatarii cu algoritmul backpropagation? a) consta in micsorarea progresiva a ratei de invatare pe masura ce algoritmul converge catre solutie b) consta in utilizarea unei rate de invatare individuale pentru fiecare pondere si adaptarea acestor parametri in fiecare iteratie, in functie de semnele succesive ale gradientilor ponderilor c) propune, la ajustarea unei ponderi, adaugarea unui termen proportional cu ultima modificare a ponderii respective 106. Prin ce se caracterizeaza metoda ratei de invatare adaptive pentru accelerarea invatarii cu algoritmul backpropagation? a) consta in utilizarea unei rate de invatare individuale pentru fiecare pondere si adaptarea acestor parametri in fiecare iteratie, in functie de semnele succesive ale gradientilor ponderilor b) propune, la ajustarea unei ponderi, adaugarea unui termen proportional cu ultima modificare a ponderii respective c) consta in micsorarea progresiva a ratei de invatare pe masura ce algoritmul converge catre solutie 107. Ce se intelege prin capacitatea de a generaliza a unei retele neuronale? a) reteaua trebuie sa dea rezultate cat mai bune pentru instantele folosite la antrenare b) reteaua trebuie sa dea rezultate bune indiferent de numarul de instante folosite la antrenare c) reteaua trebuie sa dea rezultate bune nu numai pentru instantele folosite la antrenare, ci si pentru instante noi 108. Care ar fi conditiile pentru ca o retea sa generalizeze bine? a) sa aiba o topologie adecvata cu cat mai putine ponderi si totusi sa dea rezultate bune la antrenare, exploatand astfel regularitatile problemei b) sa aiba un numar suficient de ponderi astfel incat sa dea rezultate cat mai bune la antrenare c) sa aiba un numar de ponderi egal cu o zecime din produsul dintre numarul de vectori de antrenare si numarul de iesiri 109. Cum se realizeaza validarea incrucisata ("cross-validation")? a) se valideaza rezultatele antrenarii prin adaugarea unui pas suplimentar in care se evalueaza performantele retelei pe o multime independenta de vectori dupa incheierea antrenarii b) se efectueaza mai multe antrenari succesive pe multimi de antrenare diferite si se aleg ponderile care dau cele mai bune rezultate pentru vectorii de validare apartinand intersectiei multimilor considerate c) in timpul antrenarii, se analizeaza performantele retelei pe o multime de vectori de validare diferita de multimea vectorilor de antrenare; antrenarea se opreste in momentul In care eroarea pe setul de validare nu mai scade, chiar daca eroarea pe setul de antrenare ar putea scadea in continuare 110. Cum se imbunatateste capacitatea de generalizare a unui perceptron multistrat prin simplificarea retelei ("network pruning") si tehnicile constructive? a) metoda simplificarii retelei porneste de la o retea mare si apoi elimina succesiv cele mai putin importante conexiuni; tehnicile constructive pornesc de la o retea de dimensiuni mici si ii adauga unitati pana cand performantele devin acceptabile b) aceste tehnici nu au nici o influenta asupra capacitatii de generalizare a unui perceptron multistrat c) metoda simplificarii retelei porneste de la o retea mare si apoi elimina succesiv cele mai putin importante unitati; tehnicile constructive pornesc de la o retea de dimensiuni mici si ii adauga conexiuni pana cand performantele devin acceptabile 111. In contextul regularizarii unui perceptron multistrat, care este rolul termenului de regularizare Ereg din expresia functiei de cost Etotal = E + lambda * Ereg? a) determina reteaua sa produca functii de aproximare cat mai instabile (cu variabilitate mare), deoarece acestea au sanse mai mari sa gaseasca solutia b) determina reteaua sa produca functii de aproximare cat mai netede, deoarece acestea sunt mai regulate (au variabilitate mai mica) si deci pot produce generalizari mai bune c) scad erorile de antrenare prin adaugarea unei rate de invatare suplimentare lambda 112. In contextul regularizarii unui perceptron multistrat, in expresia functiei de cost Etotal = E + lambda * Ereg, sa presupunem ca termenul de regularizare Ereg este suma patratelor ponderilor retelei. Cum se justifica o asemenea alegere? a) ponderile mai mici tind sa produca functii care se schimba mai greu si deci mai netede b) aceasta expresie pentru Ereg nu are nici o influenta asupra functiei aproximate c) ponderile mai mari tind sa produca functii care se schimba mai rapid si deci cu sanse mai mari sa produca functii netede 113. In contextul regularizarii unui perceptron multistrat, in expresia functiei de cost Etotal = E + lambda * Ereg, sa presupunem ca termenul de regularizare Ereg este suma valorilor absolute ale ponderilor retelei. Cum se justifica o asemenea alegere? a) in componenta gradientilor functiei de cost apare un termen proportional cu semnul ponderilor, ceea ce asigura atat regularizarea, cat si punerea pe 0 a ponderilor mai putin importante b) in componenta gradientilor functiei de cost apare un termen proportional cu semnul ponderilor, ceea ce asigura atat regularizarea, cat si punerea in valoare a ponderilor mai mici, care in mod normal nu si-ar fi putut aduce contributia la solutie c) in componenta gradientilor functiei de cost apare un termen invers proportional cu semnul ponderilor, ceea ce asigura atat regularizarea, cat si punerea pe 0 a ponderilor mai putin importante 114. Prin ce se caracterizeaza o retea neuronala recurenta secventiala? a) reteaua are "memorie" iar iesirea dorita pentru fiecare vector de intrare depinde nu numai de acel vector ci si de cei anteriori b) reteaua nu are "memorie" iar iesirea dorita pentru fiecare vector de intrare depinde numai de acel vector si nu si de cei anteriori c) reteaua nu are bucle iar propagarea semnalului se face secvential, din strat in strat, de la intrare catre iesire 115. Care este diferenta dintre variantele algoritmului backpropagation pentru retele feed-forward si recurente? a) nu exista nici o diferenta b) in cazul retelelor recurente, dupa aplicarea unui vector de intrare si dupa retropropagarea unui set de erori, reteaua trebuie lasata sa se stabilizeze c) in cazul retelelor feed-forward, dupa aplicarea unui vector de intrare si dupa retropropagarea unui set de erori, reteaua trebuie lasata sa se stabilizeze 116. Care sunt conditiile care trebuie respectate pentru a garanta stabilitatea la antrenare a unei retele recurente de tip perceptron multistrat? a) folosirea unor functii de activare cat mai simple (de exemplu prag), evitarea simetriei ponderilor si implementarea dinamicii retelei b) folosirea unor neliniaritati crescatoare si marginite (de exemplu sigmoide), pastrarea simetriei ponderilor si implementarea dinamicii retelei c) folosirea unor functii liniare, evitarea simetriei ponderilor si implementarea dinamicii retelei 117. Cum functioneaza retelele recurente secventiale de timp discret? a) intrarile retelei se modifica numai la momente discrete de timp, iesirile unitatilor de timp discret si ale unitatilor instantanee urmaresc imediat variatiile intrarilor lor b) intrarile retelei se modifica la orice moment de timp, iesirile unitatilor de timp discret se modifica numai la momente discrete de timp iar iesirile unitatilor instantanee urmaresc imediat variatiile intrarilor lor c) intrarile retelei se modifica numai la momente discrete de timp, iesirile unitatilor de timp discret se modifica sincron cu intrarile iar iesirile unitatilor instantanee urmaresc imediat variatiile intrarilor lor 118. De ce trebuie sa existe in fiecare bucla a unei retele recurente de tip perceptron multistrat cel putin o unitate de timp discret? a) daca bucla ar fi formata numai din unitati instantanee, reteaua ar deveni un perceptron feedforward b) aceasta conditie nu este obligatorie c) daca bucla ar fi formata numai din unitati instantanee, ar aparea o secventa infinita de actualizari 119. Care este avantajul retelelor recurente secventiale de timp discret? a) pot fi expandate in retele de tip perceptron cu un singur strat b) pot fi reduse la retele feed-forward si antrenate cu algoritmul backpropagation standard c) necesita mai putina memorie pentru antrenare 120. Cum pot fi clasificate memoriile asociative din punct de vedere al asociatiilor stocate: a) autoasociative si heteroasociative b) asociative si neasociative c) statice si recurente 121. Care este trasatura cea mai importanta a unei memorii asociative cu feedback? a) sistemul dinamic rezultat trebuie sa aiba un comportament oscilant la inceputul invatarii si stabil spre final b) sistemul dinamic rezultat trebuie sa aiba un comportament asimptotic stabil c) sistemul dinamic rezultat trebuie sa aiba un comportament asimptotic oscilant 122. Intrarea intr-o memorie asociativa se numeste: a) cheie de memorie b) model regasit c) asociatie de memorie 123. Ce trebuie sa realizeze o memorie asociativa? a) o mapare yk = G(xk) pentru toate perechile de intrare-iesire (xk, yk), maparea sa fie toleranta la zgomote si sa poata corecta eventualele erori b) o mapare yk = G(xk) pentru toate perechile de intrare-iesire (xk, yk), maparea sa fie exacta numai pentru perechile specificate la antrenare c) o mapare yk = G(xk) pentru unele perechi de intrare-iesire (xk, yk), maparea sa fie toleranta la zgomote si sa poata corecta eventualele erori 124. Ce este o "amintire fundamentala" a unei memorii asociative? a) o valoare a iesirii de tip atractor pentru o gama larga de intrari b) o pereche intrare-iesire (xk, yk) cu care se face antrenarea c) cea mai probabila intrare a memoriei asociative 125. Ce este o memorie autoasociativa? a) o memorie asociativa care reda mapari intrare-iesire de forma (xk, xk) b) o memorie asociativa care reda mapari intrare-iesire de forma (yk, xk) c) o memorie asociativa care reda mapari intrare-iesire de forma (xk, yk) 126. Ce este o "amintire falsa" (spurious memory)? a) o asociatie gresita stocata in memorie in mod intentionat pentru a asigura stabilitatea sistemului dinamic b) o asociatie gresita care trebuie identificata si eliminata c) o asociatie stocata in memorie in mod neintentionat, care nu face parte din multimea de amintiri fundamentale 127. De ce sunt mai puternice arhitecturile de memorie autoasociativa recurente decat cele feedforward? a) arhitecturile recurente au o topologie mult mai complexa decat cele feedforward b) o arhitectura feedforward este incapabila de a elimina zgomotul din vectorii de intrare c) intr-o arhitectura feedforward, la prezentarea unui vector de intrare numai o parte din eventualul zgomot va fi eliminat 128. Daca X sunt vectorii de intrare, W este matricea de interconectare, F este vectorul functiilor de activare iar t sunt momentele de timp discrete, care este ecuatia unei memorii autoasociative dinamice (DAM)? a) X(t+1) = F(W * X(t) ) b) X(t+1) = W * F( X(t) ) c) X(t+1) = W * X(t) 129. Daca X sunt vectorii de intrare, Y sunt vectorii de iesire, W1 si W2 sunt matricele de interconectare, F este vectorul functiilor de activare iar t sunt momentele de timp discrete, care sunt ecuatiiile unei memorii heteroasociative? a) Y(t+1) = F(W1 * X(t) ) si X(t+1) = F( W2 * Y(t) ) b) X(t+1) = F( W1 * X(t) ) si Y(t+1) = F( W2 * Y(t) ) c) Y(t+1) = W1 * F( X(t) ) si X(t+1) = W2 * F( Y(t) ) 130. Ce caracteristici are o memorie asociativa dinamica de inalta performanta? a) bazine mari de atractie in jurul amintirilor fundamentale, un numar relativ mic de amintiri false cu bazine mici de atractie, o stare stabila implicita de indecizie si fara regiuni cu oscilatii b) bazine mici de atractie in jurul amintirilor fundamentale, un numar relativ mic de amintiri false cu bazine mari de atractie, o stare stabila implicita de indecizie si putine regiuni cu oscilatii c) capacitate mare de stocare indiferent de restul parametrilor 131. Cum se determina matricea de interconectare W intr-o memorie asociativa liniara (notam A transpus cu A^T)? a) W = (X * Y)^T b) W = Y * X^T c) W = X * Y^T 132. Care sunt parametrii unei memorii asociative neliniare (notam A transpus cu A^T si suma cu i de la 1 la n din ai cu sum{i,1,n} (ai) )? a) Y = F (W * X^T) si W = (1/n) * sum{k,1,m} (yk * xk) b) Y = F (W* X) si W= (1/n) * sum{k,1,m} (yk * xk^T) c) Y = F (W * X^T) si W = (1/n) * sum{k,1,m} (yk * xk^T) 133. Care este reteta de inregistrare a proiectiei (projection recording recipe) pentru o memorie asociativa liniara optima OLAM (notam A transpus cu A^T si inversa lui A cu A^(-1) )? a) W* = Y * (X^T * X) ^(-1) * Y^T b) W* = Y * (X^T * X) ^(-1) * X^T c) W* = X * (Y^T * Y) ^(-1) * Y^T 134. Cand este stabila reteaua Hopfield? a) cand matricea de interconectare este simetrica si functia de activare este continua si monoton descrescatoare b) cand matricea de interconectare este simetrica si functia de activare este continua si monoton crescatoare c) cand matricea de interconectare este antisimetrica si functia de activare este continua si monoton crescatoare 135. Care este ecuatia caracteristica modelului Hopfield discret (notam suma cu i de la 1 la n din ai cu sum{i,1,n} (ai) )? a) xi(k+1) = sgn( wij*xj(k) ) + Ii b) xi(k+1) = sgn( sum{j,1,n} (wij*xj(k)) + Ii ) c) xi(k+1) = sum{j,1,n} (wij*xj(k)) + Ii 136. Memoria asociativa bidirectionala (BAM) propusa de Kosko, cu constrangerea W2^T = W1 = W (W2^T noteaza W2 transpus): a) este stabila pentru orice matrice reala de interconectare W si converge intotdeauna catre minimul functiei sale de energie b) este stabila pentru orice matrice simetrica de interconectare W si converge intotdeauna catre minimul functiei sale de energie c) este stabila pentru orice matrice reala de interconectare W si converge intotdeauna catre un minim local al functiei sale de energie 137. Care sunt pasii principali ai metodologiei de calire simulata? a) generarea determinista a unei noi stari, testarea validitatii acesteia si un program de "racire" pentru asigurarea convergentei catre solutie b) generarea aleatorie a unei noi stari, testarea validitatii acesteia si un program de "racire" pentru cresterea distantei intre doua stari succesive acoperind zone din ce in ce mai extinse in spatiul solutiilor c) generarea aleatorie a unei noi stari, testarea validitatii acesteia si un program de "racire" pentru stabilizarea intr-o anumita regiune 139. Care este densitatea de probabilitate folosita de masina Boltzman pentru a genera deplasarea dintre starea veche si cea noua intr-o retea neuronala stohastica? a) GT(x' | x' = x + X) = exp(-X^2 / T) b) GT(x' | x' = x + X) = (1/2) * pi * T^(1/2) * exp(-X^2 / T) c) GT(x' | x' = x + X) = 1/2 * pi * X^2 / T 140. Care este densitatea de probabilitate Cauchy pentru a genera deplasarea dintre starea veche si cea noua intr-o retea neuronala stohastica? a) GT(x' | x' = x + X) = T * pi * T^2 + |X|^2 b) GT(x' | x' = x + X) = T^2 / pi * (T + |X|^2) c) GT(x' | x' = x + X) = T / pi * (T^2 + |X|^2) 141. Care fenomen natural este analog cu ideea de calire simulata? a) evaporarea rapida a apei b) inghetarea treptata a apei pentru a se forma o structura cristalina c) inghetarea rapida a apei 142. In calirea simulata, cunoscand diferenta de energie dintre doua stari dE = E2 - E1, cand este posibila o tranzitie din starea E1 in starea E2? a) cand dE > 0 sau cu probabilitatea PT = 1 / (1 + exp(-dE / T) ) daca dE < 0 b) cand dE > 0 sau cu probabilitatea PT = 1 + exp(-dE / T) daca dE < 0 c) cand dE < 0 sau cu probabilitatea PT = 1 / (1 + exp(-dE / T) ) daca dE > 0 143. In calirea simulata, cand se face o tranzitie intre doua stari E1 si E2? a) daca E1 si E2 sunt la fel de bune, se face tranzitia in E2 cu o anumita probabilitate, altfel nu se efectueaza tranzitia b) daca E2 este o stare mai buna, se trece in ea sigur, daca E2 este mai proasta, se trece in ea cu o anumita probabilitate descrescatoare in timp c) daca E2 este o stare mai buna, se trece in ea cu o anumita probabilitate descrescatoare in timp, daca E2 este mai proasta, nu se efectueaza tranzitia 144. Care este programul de racire pentru calirea simulata folosind un proces aleatoriu gaussian? a) T = T0 / exp(1+t) b) T = T0 / log(1+t) c) T = T0 / (1+t) 145. Cum poate fi accelerat programul de racire in calirea simulata fata de procesul gaussian aleatoriu folosind zgomot colorat Cauchy? a) T = T0 / (1+t) b) T = T0 / log(1+t) c) T = T0 / exp(1+t) 146. Care este relatia dintre zgomot si racire intr-un proces de calire simulata? a) zgomotul asigura omogenitatea starilor vizitate iar temperatura determina cat de apropiate pot fi doua stari succesive; pe masura ce temperatura scade, cautarea se va face intr-o zona din ce in ce mai extinsa asigurand gasirea solutiei b) zgomotul asigura diversitatea starilor vizitate iar temperatura determina cat de departate pot fi doua stari succesive; pe masura ce temperatura scade, cautarea se va localiza intr-o anumita regiune si se spera ca va converge catre solutie c) zgomotul asigura diversitatea starilor vizitate iar temperatura determina cat de departate pot fi doua stari succesive; pe masura ce temperatura creste, cautarea se va localiza intr-o anumita regiune si se spera ca va converge catre solutie 147. In contextul clasificarii, care este diferenta dintre un neuron de tip perceptron si un neuron RBF? a) perceptronul si neuronul RBF se comporta la fel in contextul clasificarii b) perceptronul imparte spatiul trasaturilor in hiperplane, neuronul RBF defineste un hipervolum sau o hipersfera c) neuronul RBF imparte spatiul trasaturilor in hiperplane, perceptronul defineste un hipervolum sau o hipersfera 148. Retelele RBF: a) pot realiza clasificari dar nu si aproximari functionale b) pot realiza atat clasificari cat si aproximari functionale c) pot realiza aproximari functionale dar nu si clasificari 149. Care este topologia unei retele RBF? a) o retea RBF este formata din doua straturi: primul contine neuroni simpli care transmit intrarile fara distorsiuni iar al doilea contine neuroni RBF b) o retea RBF este formata din trei straturi: primul contine neuroni simpli care transmit intrarile fara distorsiuni, al doilea contine neuroni RBF iar al treilea contine neuroni cu functii de activare liniare c) o retea RBF este formata din doua straturi: primul contine neuroni RBF care prelucreaza intrarile iar al doilea contine neuroni RBF cu functii de activare liniare care transmit iesirile 150. Care este iesirea unei retele RBF gaussiene, daca notam suma cu i de la 1 la n din ai cu sum{i,1,n} (ai), wj sunt ponderile conexiunilor, centrele sunt exemplarele xj, dispersiile sunt sigma_j iar N este numarul de vectori de antrenare? a) f(x) = sum{j,1,N} (wj * ( - 1 / (2 * sigma_j ^ 2) * || x. xj || ^ 2) b) f(x) = sum{j,1,N} (wj * exp ( - 1 / (2 * sigma_j ^ 2) * || x. xj || ^ 2) ) c) f(x) = sum{j,1,N} (wj * exp ( - 1 / sigma_j * || x. xj || ^ 2) ) 151. Ce parametri ai unei retele RBF gaussiene sunt ajustati prin invatare? a) numai centrele gaussienelor, prin metode supervizate sau nesupervizate b) numai ponderile wi sunt ajustate, ceilalti parametri sunt ficsi c) ponderile wi, dispersiile sigma_i iar numarul de neuroni RBF poate fi redus prin selectia unor exemplare reprezentative din vectorii de antrenare 152. Ce este o retea RBF generalizata? a) o retea in care numarul de unitati RBF este mult redus fata de numarul de vectori de antrenare b) o retea RBF care poate realiza si aproximari functionale, nu numai clasificari c) o retea RBF in care iesirile sunt reale, nu binare 153. Cum se calculeaza ponderile unei retele RBF cu selectie a centrelor? a) prin metoda celor mai mici patrate b) cu algoritmul backpropagation c) prin metoda divide et impera 154. Care din urmatoarele metode nu poate fi folosita pentru adaptarea latimii functiei de baza radiala intr-o retea RBF? a) metoda gradientului descendent al functiei de cost b) metoda analizei componentelor principale (determinarea valorilor proprii prin procedura Gram-Schmidt) c) metoda celor mai mici patrate ortogonale nesupervizate 155. Ce sunt estimatorii densitatii nucleului (kernel density estimators)? a) retele neuronale RBF pentru estimarea functiilor de densitate de probabilitate b) perceptroni multistrat pentru estimarea functiilor de densitate de probabilitate c) retele neuronale stohastice pentru estimarea functiilor de densitate de probabilitate 156. Care sunt avantajele metodelor de clasificare bazate pe nucleu (kernel classifiers)? a) nu necesita reducerea numarului de nuclee sau ajustarea latimii nuceelor b) invatare simpla, posibilitatea convergentei catre clasificatorul bayesian optim, care poate ramane optim fara reantrenare c) estimarea exacta a functiilor de densitate de probabilitate ale claselor 157. Care este topologia unei retele neuronale de energie Coulomb restransa? a) trei straturi: un strat de intrare care retransmite intrarile, un strat de prototipuri si un strat de decizie b) trei straturi: un strat de intrare cu functii prag aplicate intrarilor, un strat de prototipuri si un strat de decizie c) trei straturi: un strat de intrare cu functii prag aplicate intrarilor, un strat de prototipuri cu functii de activare sigmoide si un strat de decizie 158. Intr-o retea neuronala de energie Coulomb restransa, care este rolul stratului de prototipuri? a) prototipizarea vectorilor de intrare prin eliminarea diferentelor semnificative fata de vectorii de antrenare cei mai frecventi b) clasificarea vectorilor de antrenare printr-o multime de hipervolume cu raza fixe pentru vectorii de intrare cei mai frecventi c) aproximarea claselor printr-o superpozitie de hipervolume cu anumite raze in spatiul trasaturilor 159. Ce se intalmpla daca intr-o retea neuronala de energie Coulomb restransa raza initiala lambda_0 este prea mica? a) numarul de neuroni prototip devine egal cu numarul de vectori de antrenare b) invatarea tinde spre supra-potrivire (over-fitting) c) invatarea tinde spre sub-potrivire (under-fitting) 160. Care este topologia unui arbore neuronal? a) un strat de intrare, un strat de neuroni binari (cu un numar de neuroni egal cu numarul de noduri ale arborelui), un strat de neuroni logici SI (cu un numar de neuroni egal cu numarul de frunze ale arborelui) si un un strat de neuroni logici SAU (cu un numar de neuroni egal cu numarul de clase) b) un strat de intrare, un strat de neuroni binari (cu un numar de neuroni egal cu numarul de frunze ale arborelui), un strat de neuroni logici SI (cu un numar de neuroni egal cu numarul de clase) si un un strat de neuroni logici SAU (cu un numar de neuroni egal cu numarul de noduri ale arborelui) c) un strat de intrare, un strat de neuroni binari (cu un numar de neuroni egal cu numarul de frunze ale arborelui), un strat de neuroni logici SI (cu un numar de neuroni egal cu numarul de noduri ale arborelui) si un un strat de neuroni logici SAU (cu un numar de neuroni egal cu numarul de clase) 161.În algoritmul de căutare pe arbori Monte Carlo (Monte Carlo Tree Search, MCTS), metoda de selecţie UCB1 presupune selectarea acțiunii care maximizează următoarea expresie: wi / ni + sqrt(2*In n / ni). Ce reprezintă variabilele din această formulă? a). Wi este numarul de victorii in fiul i, ni este numarul de simulari in fiul i, iar n este numarul de simulari in nodul curent b). wi este ponderea neuronului corespunzator nodului curent, ni este numarul de intrari in nodul curent, iar n este numarul total de neuroni ai sistemului c). wi este numarul de victorii in nodul curent, ni este numarul de simulari in nodul curent, iar n este numarul total de simulari, pentru toate nodurile d). wi este echivalentul valorii alfa din algoritmul minimax cu retezarea alfa-beta, ni este echivalentul adancimii arborelui in care se face cautarea 162.Care este scopul modelului “boids”? a). Simuleaza comportamentul unui stol de pasari b). Simuleaza comportamentul unor furnici care gasesc calea cea mai scurta spre o sursa de hrana c). Simuleaza un sistem anti-agent in care agentii comnsuma si depoziteaza resurse(de exemplu “zahar”) si interactioneaza d). Este un model al coruptiei sociale 163.Ce se poate spune despre performanțele algoritmului de căutare iterativă în adâncime? a). Algoritmul realizeaza o cautare in adancime cu limitarea la k niveluri, iar sub aceasta adancime nodurile nu mai sunt expandate b). Algoritmul are in cazul cel mai defavorabil complexitatea de timp liniara: O(bd) c). Algoritmul are in cazul cel mai defavorabil complexitatea de spatiu exponentiala: O(bd) d). Algoritmul este complet si optim daca un pas are costul 1 164.Ce tip de inferență fuzzy are efectul celei din figură? a). Mamdani b). Sugeno c). Larsen d). Mamdani cu premise multiple 165.Care este unificarea expresiilor următoare: P(X, g(Y) ) şi Q(f(Z), g(y)) ? a). P/Q, f(Z)/X b). f(Z)/X c). P/Q, f(Z)/X, Y/Y d). Expresiile nu pot fi unificate deoarece P si Q sunt predicate distincte —----------------------???------------------------- 166. Logica fuzzy: 1965 – Zadeh 167.Algoritmii genetici: 1973 – Holland 168. Euristica: Este o metoda care furnizeaza rapid o solutie, nu neaparat optima 169. Algoritmul A* este optim efficient daca: Euristica este monotona 170.Retezarea alfa-beta: Intretese generarea arborelui cu propagarea valorilor 171. Tipuri de selectie: Ruleta, bazata pe ranguri, esantionare universala stohastica, competitie (tournament) 172. Esantionarea universala stohastica: Utilizeaza o singura valoare aleatorie r pentru alegerea tututror indivizilor, la intervale echidistante; N indivizi => N intervale 173. Competitie: Se aleg aleatoriu k indivizi din populatie si se determina cel mai adaptat dintre acestia; se repeta procedura pentru a selecta mai multi parinti; este mai rapida 174. Pentru un algoritm evolutiv, cum functioneaza selectia de tip competitive(tournament)? Un parinte se alege ca fiind cel mai adaptat individ dintr-un numar de indivizi selectati aleatoriu din populatie 175. Elitismul: Cel mai adaptat individ este copiat direct in noua populatie; nu se va pierde solutia cea mai buna 176. Incrucisarea: Combina 2 cromozomi parinti pentru a produce un nou cromozom fiu; poate fi mai bun decat ambii parinti Rata de incrucisare: (0.75, 0.95) 177. Incrucisarea binara cu un punct: Se allege un punct aleatoriu in cei 2 parinti; se divid parintii la punct; se creeaza 1 sau 2 copii prin unirea extremelor 178. Incrucisarea cu n puncte: Se aleg aleatoriu n puncte de incrucisare; se divid parintii; se reunesc fragmentele, alternativ 179. Incrucisarea uniforma: Se genereaza o masca uniforma; ea determina ce biti sunt copiati de la fiecare parinte 180. Mutatia binara: Se modifica fiecare gena in mod independent cu o probabilitate numita rata de mutatie 181. Mutatia reala: Resetarea valorii unei gene la un numar aleatoriu din domeniul ei de definitie 182. Criterii de terminare: Dupa un numar prestabilit de generatii, cand algoritmul a convers 183. Numarul maxim de generatii variaza de obicei intre: 100-1000 184. Ant Colony Optimization (Optimizarea de tip colonie de furnici) Metoda probabilistica pentru rezolvarea unor probleme care pot fi reduse la gasirea unor cai in grafuri 185.Sistem expert: Un program care utilizeaza cunostinte si procedure de inferenta pentru a rezolva probleme sufficient de dificile pentru a necesita in mod normal interventia unui expert uman in vederea gasirii solutiei Programe care inmagazineaza cunostinte specializate, provenite de la experti 186. Sistem esential: Sistem care contine 3 module principale: baza de cunostinte, motorul de inferenta, baza de fapte 187. Retea semantica: O modalitate grafică de reprezentare a cunoașterii în modele de noduri, semnificând concepte, interconectate prin arce etichetate, care precizează relațiile dintre concept 188. Teoria cadrelor (frame theory): Propune o reprezentare in care sunt cuprinse atat informatii declarative, cat si procedural, pentru reprezentarea situatiilor stereotipe 189. Un cadru este: Sablon general, în care datele noi sunt interpretate în termenii sau conceptele experienței dobândite anterior (ex: o camera de hotel) 190. Un scenariu este: O modalitate de reprezentare a cunoașterii ce descrie o secvență stereotipă de evenimente într-un anumit context, adică situații care se repetă, păstrând aceeași structură 191. Teorema lui Bayes: P(AB|A) = P(A|B) * P(B) / P(A) 192.O retea bayesiana este: Un model grafic probabilistic, adică un graf cu o mulțime de noduri, care reprezintă evenimente aleatorii, conectate de arce, care reprezintă dependențe condiționate între evenimente 193.Algoritmul Bayes-Ball: O modalitate simpla de a determina relatiile de independenta si independenta conditionate intr-o retea bayesiana —---------------------------------------------PROBLEME---------------------------------------------------- 1. După expandarea nodului A, care nod va fi prelucrat primul de către algoritmul de căutare A*? Rezolvare: Calculezi g+h si alegi cea mai mica suma a) Nodul D b) Nodul C c) Se va alege în mod aleatoriu unul din nodurile B sau D d) Nodul B 2. Pentru arborele din figură, aplicând algoritmul Minimax, care mutare va fi aleasă de jucătorul MAX? Rezolvare: Preluam cel mai mic nr pe fiecare ramura si il mutam in nodul tata. Dupa comparam nodul tata cu ceilalti fii alegand minimul de pe ramura de jos. Pe ramura centrala se muta cel mai mic minim, iar sus se trece maximul dintre aceste minime a) Mutarea C b) Mutarea A c) Mutarea B d) Va alege aleatoriu între mutările B și C 3. Dempster-Shafer Se face x*y+x*(1-y)+y*(1-x) 4.1 Manhattan Se numara pasii de care are nevoie fiecare nr pentru a ajunge in pozitia din starea curenta in starea scop. 4.2 Manhattan 5. Reteaua bayesiana 6. Minimax cu retezarea alfa-beta https://raphsilva.github.io/utilities/minimax_simulator/ Rezolvare: Nu s-au mai parcurs nodul 7 si -4 pentru ca primul minim (2) din a treia formatie este mai mic decat nodul tata(5) 7. fuzzy triunghiular 8. Algoritm evolutiv cu codare reala 9. Arbore de decizie 10. Algoritm evolutiv 11. Joc de factor de ramificare pentru retezarea alfa-beta 12. Harta Australiei 13. A avea o prajitura si a manca o prajitura 14. Metoda rangurilor 15. Echilibru Nash https://mindyourdecisions.com/GameSolver.html 16. Algoritm evolutiv 17. Fuzzy triunghiular A 18. Graf de constrangeri 19. Reteaua bayesiana 20. Minimax cu retezarea alfa-beta 21. Algoritmul A* 22. Algoritmului de invatare 23.1. Invatare prin intarire 23.2 Invatare prin intarire 24.Dempster-Shafer