Jump to content

SUBIECTE NOI
« 1 / 5 »
RSS
Sub mobila de bucatarie si sub fr...

Rezultat RMN

Numar circuite IPAT si prindere t...

Pareri brgimportchina.ro - teapa ...
 Lucruri inaintea vremurilor lor

Discuții despre TVR Sport HD

Cost abonament clinica privata

Tremura toata, dar nu de la ro...
 Renault Android

Recomandare bicicleta e-bike 20&#...

Bing-Content removal tool

Nu pot accesa monitorulsv.ro de l...
 Cum sa elimini urmele de acnee?

Wc Geberit

Routere detinute in trecut si in ...

Teii din fața casei
 

Ce este si cum functioneaza Inteligenta Artificiala (discutie generala)

- - - - -
  • Please log in to reply
41 replies to this topic

#19
Sinmbad

Sinmbad

    Senior Member

  • Grup: Senior Members
  • Posts: 2,021
  • Înscris: 22.04.2022
Ce nu poate face abacul și nici chatGpt este că în baza experienței deciziilor vechi sa ia decizii noi optimizate și, pe de altă parte, deoarece inteligenta pare să descrie un pattern evolutiv iarăși ce nu pot ele ar fi sa evolueze independent versus entropie.

Ele nu evoluează nici versus greșeli.

Nu învață ca supraviețuitorii din greșeli.

Momental AI nu evoluează, oamenii "evoluează" și învață să reprogrameze AI

Nu este inteligenta AI, este inteligenta  omului.

Ceea ce duce catre o aberație în a masora IQ unei cutii bagate in priza.

IQ va fi de îndată ce cutia va face ceva sa se scoată din priza , este necesară "mutația", variația ieșirii din tipar, supraviețuirea și adaptarea.

#20
maccip

maccip

    45 ani

  • Grup: Senior Members
  • Posts: 33,061
  • Înscris: 06.01.2007

View PostSinmbad, on 19 februarie 2023 - 07:11, said:

Momental AI nu evoluează, oamenii "evoluează" și învață să reprogrameze AI
Strict ChatGPT, nu evolueaza, deoarece are deja un model si o reprezentare a fiecarei notiui, bazata pe un porcoi de text pe care l-a metabolizat in procesul de invatare.
Din punctul ast de vedere, fara sa aiba o bucla de feedback, putem zice ca nu are cum sa evolueze. Trec decenii si el tot aia face, pe aceleasi cunostinte.

Dar el are o reprezentare a dialogului si al contextului. Si ala e generat atat de el cat si de participantul la dialog. Probabil ca si aici, el incearca sa minimizeze o functie, care descrie gradul de satisfactie, deci are capabilitatea de a se adapta, de a evolua (din perspectiva umana).
Insa, nu strict ChatGPT-ul, dar urmatorul sau altul deja existent, ar putea avea si aceasta capabilitate.
Totul tine de bucla de feedback. Refacerea modelelor si reprezentarilor asupra notiunilor, probabil ca dureaza mult timp, deoarece minimizarea unei functiicare sa cuprinda absolut toate notiunile, necesita un timp probabil nonliniar cu sirul de biti de input. Fiind un algoritm non O(n) sau noncvszi- O(n) , nu se poate implementa pe un computer clasic.
Dar, ... dar.. avem deja quantum anealers, dispozitive care pot gasi minimul unei functii pe date in timp O(n) (sau pe-aproape, gen O(N logN)
Sau tehnica  simulated anealing , capabila sa gaseasca minimul unei functii pe o functie care se updateaza, in timp cvasiliniar, prin procedee pur stohastice, asemanatoare mecanicii statistice (temperatura, echilibru termic). Eu nu stiu cum functioneaza Chat GPT sau cum ar putea beneficia de aceste tehnici, insa ma gandesc ca ar putea sa se updateze in timp real, atata timp cat un algoritm care face asta ar fi posibil sa ruleze pe o masina.

Atat mai lipseste. Un update in timp real si o bucla de feedback, care sa influenteze modelul, pentru a putea evolua.
Bucla de feedback e ceva foarte puternic. Chiar si pe un spatiu unidimensional, produce sisteme de o complexitate nesperata. O simpla reactie de feedback in electronica, poate produce sisteme haotice, cu atractori, cu tot ce trebuie pentru a nu mai putea fi predictibil in functionare.
In bucla de feedback, efectul e bagat inapoi ca si cauza pentru el insusi. Circuitul de control devine mediul ambiant in cazul unei fiinte care evolueaza, si interlocutorul, in cazul unui bot de chat. Cat timp botul isi rafineaza raspunsurile maximizand un deziderat, putem spune ca evolueaza.

#21
maccip

maccip

    45 ani

  • Grup: Senior Members
  • Posts: 33,061
  • Înscris: 06.01.2007
Ceva interesant(cel putin pentru mine) mi-a venit in minte, cand compuneam textul de mai sus.
Locul natural de studiu al feedbackului se afla in teoria controlului sistemelor. Aceasta teorie functioneaza pe premisa ca un sistem produce un semnal unidirectional liniar in raport cu inputul(sau serializabil catre unui unidimensional, liniar in raport cu inputul), are un input unidimensional (sau serializabil catre unul) si are in permanenta conectat la el un subsistem sau un sistem exterior de control, si studiaza functia de transfer input->output, conditionata de parametrii ssubsistemului(sau sistemului exterior) de control.

In teorie, presupunerile astea sunt minime, si cam orice sistem pe care ni-l putem inchipui, il respecta, sau il putem transforma intr-unul care le resecta.. Conditia de serializabilitate intr-un semnal unidirectional(sau sir de biti), e comuna tuturor sistemelor, exceptie celor quantice sau celor computational reversibile, sisteme care inca sunt la inceput in ceea ce priveste cunoasterea profunda a lor. Sistemele computational reversibile, sunt cele care-si propun intr-o prima etapa eliminarea Chandrasekhar limit, in ceea ce priveste consumul de energie pentru procesare. Ele sunt studiate la nivel teoretic deocamdata, deoarece hardware nu am ajuns inca acolo, unde aceasta limita sa conteze. Dar e un vector de explorare, unde deja exista niste concluzii cu privire la cum trebuie sa arate un asemenea sistem (reversibil computational).

Bun!
Deci avem sisteme care primesc input un semnal, scot pe output un semnal printr-o functie de transfer liniara, ontrolata de catre un subsistem de feedback cu un numar de parametri. Rezultatele din teoria controlului sistemelor sunt urmatoarele:
- stabilitatea sistemului e caracterizata de polii unei ecuatii de tip rational polinomiale, care sunt in numar egal cu parametrii subsistemului de control. Exista discriminanti, care produc trecerea de la stabilitate la instabilitate, deci locul natural de modelare a acestor lucruri e in multimea numerelor complexe.
- pentru ca un sistem sa se comporte haotic, nepredictibil, reteaua trebuie sa aiba minim 2 parametri (sau 2 variabile de memorie cu valori reale)
- Un sistem stabil, derulat inapoi in timp, in general e un sistem instabil. Doar in zona in care discriminantii sunt zero sistemul se pastreaza stabil (stabilitate labila)
- Un sistem instabil, derulat inapoi in timp de cele mai multe ori este tot instabil, insa se poate obtine stabilitatea lui, prin manipularea parametrilor subsistemului de control, care sa duca discriminantii la zero, caz in care stabilitatea lui e tot labila. ori o alta conditie impusa asupra tuturor parametrilor, care trebuie sa genereze toti polii in zona de instabilitate. Doar inversarea unui astfel de sistem in timp poate produce un sistem stabil.

Deci stabil si instabil nu sunt chiar doua notiuni complementare, exceptie cazul in care ai un singur parametru in subsistemul de control. Iar ideea de derulat in timp inainte-inapoi, corespunde cu un steady state, in sens Markovian, unde nu mai conteaza directia timpului. O retea markoviana ruleaza in absenta semnalului de input pana la infinit sa extraga acea stare de echilibru steady. Ca idee.

Dar ideea spre care vreau sa ajung e ca, bucla de feedback necesita ajustare in absenta semnalului de input pentru a converge inspre un sistem "dezirabil" Iar sistemul dezirabil e unul care ruleaza la fel deruland timpul inapoi, deoarece e obtinut printr-o conditie de minim.
In absenta semnalului de input, reteaua de feedback se poate recalibra si ajusta, astfel incat sa "anticipeze" un semnal mai "dezirabil" pe output, in momentul in care va primi din nou acelasi tip de input. Adica, parametrii astia se pot tuna, intr-o perioada de inactivitate a sistemului (input=0), printr-o tehnica de tip retea Markov, care anticipeaza starea de stabilitate a sistemului In teoria retelelor de tip markov, instabilitatea e invers, rareori instabila si de cele mai multe ori stabila. Fara input, un sistem se poate recalibra catre un steady state stabil in general. Iar starea finala steady, e aia in care directia curgerii timpului nu conteaza.


Si.. unde voiam sa ajung? Nu cumva, starea asta de input=0, timp in care subsistemul de control sa-si recalibreze parametrii e strict necesara pentru a produce sisteme stabile? Adica, cu presupunerile alea din teoria sistemelor, care sugereaza chestia asta, nu cumva rezulta ca si noi, oamenii avem nevoie de acel input=0 ? Adica de somn.
Rolul somnului inca nu e elucidat si eu nul dintre cele mai ciudate gauri in cunoasterea umana. Se pare ca orice organism cat de cat evoluat are nevoie de somn, iar somnul in sine nu e doar o "relaxare a muschilor" ci si o necesitate a sistemului de control, sistemul nervos, pentru a fi capabil sa produca in mod convergent solutii (parametrii procesului de feedback prin care este conectat la lumea inconjuratoare). Chestia asta sa aiba cumva legatura cu stabilitatea sistemelor si cu stabilitatea retelelor de tip Markov, care produc o stare  care sa controleze un sistem independent de sensul de curgere a timpului.

Mie mi se pare ceva gros de tot, ca in viitor sa descoperim cu ajutorul unui bot sau prin incercarea de a obtine botul perfect, sa descoperim ca somnul e o consecinta directa a acestui lucru.
Si ca daca vrem ca botul sa nu doarma, trebuie sa iesim din zona computationala clasica, (cu porti logice), macar in zona computationala reversibila (cu porti logice reversibile, daca nu cumva chiar in zona computationala cuantica (unde portile logice sunt musai reversibile).

Mi se pare interesanta chestia asta.

Edited by maccip, 19 February 2023 - 11:11.


#22
parabellum

parabellum

    Senior Member

  • Grup: Senior Members
  • Posts: 2,447
  • Înscris: 06.01.2010

Quote

o bucla de feedback, care sa influenteze modelul
Asa ceva exista prin retelele neuronale de prin epoca pietrei.
Relativ la asta, atentie la atentie: https://en.wikipedia...achine learning

Relativ la toate povestile astea nemuritoare, cine crede ca aia de fac cercetare pe asemenea domeniu sunt atat de prosti incat ei nu s-au gandit deja la 'solutii' daca sunt fezabile?
Eu nu cred...

Pe de alta parte, unii nu inteleg complexitatea spatiului multi-dimensional implicat si o dau in cvasi-liniaritati aiuristice.

Quote

Deci avem sisteme care primesc input un semnal, scot pe output un semnal printr-o functie de transfer liniara, ontrolata de catre un subsistem de feedback cu un numar de parametri.
In cazul retelelor neuronale, neliniaritatea e esentiala, povestile nemuritoare cu 'avem un sistem cu functie de transfer liniara' sunt povesti nemuritoare.
Fara neliniaritate, practic o retea de-aia s-ar traduce intr-o singura inmultire cu o matrice si gata, maccip a rezolvat non-problema! Posted Image

Edited by parabellum, 19 February 2023 - 12:32.


#23
MarianG

MarianG

    be that as it may

  • Grup: Moderators
  • Posts: 31,383
  • Înscris: 10.08.2005

View PostSinmbad, on 19 februarie 2023 - 07:11, said:

Ceea ce duce catre o aberație în a masora IQ unei cutii bagate in priza.
Intreb din nou, cine vrea aberatia asta ?
Dezvoltatorii spun ca este robotul este o inteligenta artificiala, tu sari cu IQ.

View PostSinmbad, on 18 februarie 2023 - 23:50, said:

AI poate fi distructiv indiferent de IQ.

View Postmaccip, on 19 februarie 2023 - 10:05, said:

Atat mai lipseste. Un update in timp real si o bucla de feedback, care sa influenteze modelul, pentru a putea evolua.
Ai vazut buotanele de feedback pentru fiecare raspuns pe care il genereaza  ? Nu sunt doar atat, se accepta si impresii exprimate in cuvinte.
Cand ii spui robotului, "ai gresit", si el se corecteaza nu este "feedback in timp real" ?
feedback-ul este bidirectional.

Edited by MarianG, 19 February 2023 - 12:59.


#24
maccip

maccip

    45 ani

  • Grup: Senior Members
  • Posts: 33,061
  • Înscris: 06.01.2007
L-am intrebat ce-i cu butoanele alea si el mi-a raspuns ca nu le baga in seama.
E feedback in timp real, dar in cadrul contextului dialogului. El nu-si imbunatateste modelul pe care lucreaza, ci doar isi creeaza un model al contextului discutiei (probabil total diferit decat cel pe care a fost antrenat pentru "intelegere" de limbaj.. E tot feedback, dar in alt context, nu in contextul "imbunatatirii" lui , ca bot.
Lasat asa, tot la fel va raspunde si peste un deceniu. In sensul asta, inputul tau, nu constituie pentru el o inchidere a unei bucle de feedback din care sa invete prin adaptare, nu la nivelul lui ca si entitate, cu doar la nivelul instantei (agentului) care vorbeste cu tine. Adica strict la nivelul dialogului curent, unde probabil are alt tip de reprezentare a notiunilor discutate, nu unul de tip spatiu vectorial, ci unul de tip arbore(speculez aici).

#25
maccip

maccip

    45 ani

  • Grup: Senior Members
  • Posts: 33,061
  • Înscris: 06.01.2007
O alta analogie pe care o vad eu aici, cu omul ca interpretor de informatie "serializabila" (notiuni, concepte), e faptul ca ambele sisteme (botul si omul) au cate 2 modele, care (sigur la bot si foarte probabil si la om), apartin din pdv categoric unor clase diferite de procese.
In psihologie, se zice ca omul are doua sisteme drin careproceseaza informatiile din mediu. Unul de natura constienta, altul de natura subconstienta. Primul e serializabil (exprimabil pe gura, prin notiuni), celalalt neserializabil (nu poate fi copiat intr-un alt container/creier decat prin intermediul primului sistem, constient). Si, exista niste caracteristici definitorii sau caracteristici ce decurg din aceasta impartire. Sistemul subconstient care face totul rapid, preprogramat, fara efort si sistemul constient care interactioneaza prin notiuni, exprimabile in cuvinte, lenes dar productiv, capabil sa se reconfigureze, capabil sa invete.
Asa si botul. Are un sistem preexistent care functioneaza pe baza unui model, antrenat, avand reprezentari interne ale notiunilor, cu operatii (matematice) izomorfe cu operatiile asupra notiunilor (relatii cuantificatori de valoare). Si al doilea sistem, care se construieste in timpul dialogului cu tine, prin care reprezentarile notiunilor sunt asezate arborescent(sau graf, sau altcumva), bazat pe relatiile preexistente si cuantificatorii preexistenti (care constituie componenta neserializabila). Structura respectiva pe care opereaza acest sistem "constient", adica interpretorul propriuzis, instanta, agentul care vorbeste cu tine, fiind una de natura serializabila, (automat capabila sa-si salveze contextul).
Poate e o coincidenta, sau o "potrivire" a unor lucruri deja existente, insa e posibil sa fie si o necesitate a procesului de gandire conceptual, prin care ne definim notiunile prin concepte si relatiile dintre acestea, prin care fiecare notiune "inseamna" ceva, iar aceasta "insemnatate" e construita algoritmic, de la idei primare, terminale (idei platonice, sa zicem) inspre notiuni complicate, care necesita invatare, constructii formale pe semantici primare pentru a obtine produse de nivel superior din pdv conceptual.

E posibil si acest aspect sa fie mai bine relevat de inteligenta artificiala si evolutia ei, evolutia intelegerii mecanismelor ei.

O dovada in plus de sprijin a ideii o constituie si faptul ca, procesele de clasificare a notiunilor, formelor, chestiilor, bazate pe automate, se realizeaza practic prin reducerea dimensionalitatii spatiului de input. Ai 2000 de poze de oameni pe care le bagi intr-un algoritm de recunoastere faciala, sa zicem, iar acesta produce mai intai o reducere a dimensionalitatii spatiului de valori posibile(ale pixelilor), intr-o multime "rezonabila" (din perspectiva umana, sau multiplu conectata din perspectiva masina),
Fie ca-i vorba de o tehnica bazata pe retele neuronale, fie ca-i vorba de o tehnica bazata pe procesare date in bloc, matriceala, ambele tehnici au in comun un tip de dihotomie similara cu sistemele constient vs subconstient. In sensul ca, datele de antrenare sunt distribuite in reteaua neuronala, aintr-un mod neserializabil, pe cand datele furnizate de retea sunt perfect serializabile, contin un fel de "semnificatie".
La fel si metode matriceale, care lucreaza in spiritul si ideea reducerii dimensionalitatii prin procedee cu eigenvalues (un scalar se comporta ca o matrice pe anumiti vectori proprii), genu. Singular Value Decomposition.
Pe singular value decomposition, avem o matrice de date brute, de regula dreptunghiulara, (foarte dreptunghiulara cu lungimea mult mai mare decat latimea), care se scrie ca un produs de 3 matrici. Una mica, ortogonala, alta diagonala (cu valorile proprii, clasificarea pe "caracteristici") si una tot ortogonala, de dimensiuni colosale, care nici macar nu necesita a fi reprezentata in memorie. Aia din urma e de fapt partea neserializabila, care nu se poate copia de pe un divais pe altul. Ma rog, se poate, insa copierea respectiva daca nu e una verbatim, clonare, nu functioneaza deloc, nu merge aproximata.
Cumva, orice algoritm conceput panaacum de clasificare, prin reducerea dimensionalitatii datelor de intrare, ne cam indreapta spre directia asta, a necesitatii existentei a doua tipuri de date, cu care masina sa obtina dezideratul. Una asambland ideea de "constient" si una ideea de "subconstient". More or less. Si ar fi interesant de cunoscut daca nu cumva acest lucru e de fapt o necesitate izvorata insasi din modalitatea asta de a procesa informatiile in mod conceptual.

#26
MarianG

MarianG

    be that as it may

  • Grup: Moderators
  • Posts: 31,383
  • Înscris: 10.08.2005
Pai si nu e destul in cadrul dialogului? Sau altfel spus al topicului pe care vrei sa il discuti cu el?

#27
parabellum

parabellum

    Senior Member

  • Grup: Senior Members
  • Posts: 2,447
  • Înscris: 06.01.2010

Quote

Lasat asa, tot la fel va raspunde si peste un deceniu.
Nu raspunde tot asa, pentru ca exista un factor aleatoriu la generarea raspunsului: nu se alege tokenul generat cel mai pseudo-probabil, ci dintr-o lista de pseudo-probabilitati se alege dintre cele mai x pseudo-probabile tokenuri unul dintre ele, pseudo-aleatoriu.

Asa-i ca nu mai pare atat de inteligenta Imbecilitatea Artificiala?

Chestiile astea au 'memorie' pe termen scurt, sa pretinzi sa invete in timp real - pe termen lung - cat 'discuta' nu e deloc fezabil din foarte multe motive (foarte costisitor computational + ca ar invata prostii patentate).

Edited by parabellum, 19 February 2023 - 23:35.


#28
Skyler-ftw

Skyler-ftw

    Active Member

  • Grup: Members
  • Posts: 1,187
  • Înscris: 28.02.2008

View Postmaccip, on 19 februarie 2023 - 13:08, said:

E feedback in timp real, dar in cadrul contextului dialogului.
Feedback-ul ala nu are treaba cu ChatGPT, e pentru echipa de cercetare din spate le lui care incearca sa obtina date despre cum se descurca AI-ul si cum poate fi imbunatatit. De fapt, tot ChatGPT-ul de acum e doar un experiment pentru a vedea cum se descurca in viata reala si a trage niste concluzii.

#29
parabellum

parabellum

    Senior Member

  • Grup: Senior Members
  • Posts: 2,447
  • Înscris: 06.01.2010

Quote

faptul ca, procesele de clasificare a notiunilor, formelor, chestiilor, bazate pe automate, se realizeaza practic prin reducerea dimensionalitatii spatiului de input
Unora nu le place realitatea, asa ca o sa incerc din nou, pe un exemplu concret (sa nu se astepte altcineva ca ceva din restul comentariilor lungi de mai sus sa fie mai corecte):

Uneori se intampla asa. Alteori e pe dos:
https://en.wikipedia..._vector_machine
Citat relevant:

Quote

SVMs can efficiently perform a non-linear classification using what is called the kernel trick, implicitly mapping their inputs into high-dimensional feature spaces.
Daca pare prea complicat, un exemplu mai simplu: o regresie liniara poate realiza regresie polinomiala prin cresterea dimensionalitatii spatiului. Pentru cazul cel mai simplu, daca ai doar o intrare unidimensionala (aka un singur 'feature'), e suficient sa adaugi la 'features', x^2, etc (pana la ce ordin vrei) ca sa obtii regresie polinomiala.
Apoi clasificarea se poate realiza prin adaugarea unei 'link function', de exemplu functia sigmoida pentru regresia logistica sau softmax pentru mai mult de doua clase).

#30
parabellum

parabellum

    Senior Member

  • Grup: Senior Members
  • Posts: 2,447
  • Înscris: 06.01.2010
Ca tot s-a despartit pe sectiunea de 'cum functioneaza', pun articolul aici: https://arxiv.org/abs/1706.03762

Cu asta a pornit treaba de s-a ajuns la hypeul actual.
In articolul original e o arhitectura encoder-decoder, GPT e doar decoder, BERT e encoder.

Tot in articolul asta s-a furnizat o metoda de a coda pozitia in input, putandu-se inlocui RNNurile (r vine de la recurent, pentru cine nu stie) anterioare (care au ceva deficiente, s-a incercat sa se rezolve o parte cu https://en.wikipedia...ort-term_memory dar tot nu au devenit atat de eficiente ca transformerele).

#31
Olivian-Breda

Olivian-Breda

    Member

  • Grup: Members
  • Posts: 251
  • Înscris: 13.01.2007
Un aspect e că inteligența artificială tot va evolua.

Mi se pare relevant acest articol, vechi (The Artificial Intelligence Revolution: Part 1 - Wait But Why), care zice despre Inteligența Artificial încă din 2015, și face tot felul de predicții.

#32
parabellum

parabellum

    Senior Member

  • Grup: Senior Members
  • Posts: 2,447
  • Înscris: 06.01.2010
Cei de la Meta se lauda ca au scos un model cu parametri mai putini decat GPT3, dar care il bate pe majoritatea benchmarkurilor si in plus e antrenat pe date publice.
Mai mult decat atat, e disponibil pe github.
Mai multe, aici: https://ai.facebook....-llama-meta-ai/ (cu linkuri la articol).
Aici e githubul: https://github.com/f...kresearch/llama

#33
wertyck

wertyck

    Guru Member

  • Grup: Senior Members
  • Posts: 12,978
  • Înscris: 13.03.2005
Întrebarea inițială era ce este inteligenta, iar răspunsul este unul complex și subiectiv. Inteligența poate fi definită în multe moduri și poate fi măsurată prin diverse teste și criterii. Există diferite opinii și teorii cu privire la ceea ce înseamnă inteligența și cum poate fi ea măsurată.

În general, putem spune că inteligența este o capacitate cognitivă care ne permite să rezolvăm probleme, să învățăm, să gândim logic, să analizăm și să comunicăm eficient. În mod tradițional, testele de inteligență, cum ar fi QI-ul, au fost utilizate pentru a evalua aceste capacități cognitive.

Cu toate acestea, trebuie să fim conștienți de faptul că testele de inteligență au fost criticate pentru că pot fi influențate de factori socio-culturali și de prejudecăți. Testele de inteligență nu pot capta întreaga complexitate și diversitate a abilităților și capacităților umane.

În ceea ce privește ChatGPT, el este un model de limbaj natural dezvoltat de OpenAI, care are capacitatea de a genera texte, răspunsuri și conversații într-un mod similar cu cel al unui om. Acesta este antrenat pe baza unor seturi de date imense și poate învăța să îndeplinească diferite sarcini, precum traducerea, rezolvarea de probleme, răspunsul la întrebări etc.

În ceea ce privește abilitățile specifice de inteligență, putem spune că ChatGPT are o capacitate puternică de a face analogii și de a gândi axiomatic, dar capacitățile sale de a crea ceva nou sunt limitate de faptul că el funcționează pe baza seturilor de date și algoritmilor pre-existenți. Capacitatea sa de a avea o "inteligență afectivă" este discutabilă, deoarece acesta este un concept mai degrabă uman decât matematic.

#34
parabellum

parabellum

    Senior Member

  • Grup: Senior Members
  • Posts: 2,447
  • Înscris: 06.01.2010

Quote

într-un mod similar cu cel al unui om
FALS.
Structura unui transformer nu e analoaga cu ce se intampla in creierul unui om.

Se poate argumenta de exemplu pentru retelele convolutive ca ar fi cumva similare cu ce exista la om pe partea vizuala, dar cand e vorba de transformere pe partea de limbaj, nici vorba.

Quote

are o capacitate puternică de a face analogii și de a gândi axiomatic
Fals din nou pentru pseudo-gandirea axiomatica, un theorem prover clasic se sterge in dos cu ChatGPT. Si nu e inteligent, doar aplica niste reguli logice (cum ar fi rezolutia).

Edited by parabellum, 25 March 2023 - 18:08.


#35
parabellum

parabellum

    Senior Member

  • Grup: Senior Members
  • Posts: 2,447
  • Înscris: 06.01.2010
Pentru cine e curios, am implementat un proiect 'de la zero' (pentru algebra liniara am folosit Eigen, totusi) deocamdata culminand cu o retea neuronala 'multilayer perceptron'. Detalii aici:
https://forum.softpe...4#entry29855061

Urmeaza sa mai aranjez un pic codul si sa afisez ceva rezultate mai bine, apoi o sa adaug si ceva descrieri in README.

#36
Cristi_E

Cristi_E

    Senior Member

  • Grup: Senior Members
  • Posts: 7,959
  • Înscris: 31.03.2015
Cred ca are un bug chatgpt si, oricum, suna prea pompos *inteligenta artificiala*. AI-ul culege informatie, o proceseaza dupa anumiti algoritmi, dar nu are logica, deci nu se poate numi inteligenta, fie ea si artificiala.
Spoiler

Edited by MarianG, 02 April 2023 - 13:25.
spoiler, quote


Anunturi

Chirurgia spinală minim invazivă Chirurgia spinală minim invazivă

Chirurgia spinală minim invazivă oferă pacienților oportunitatea unui tratament eficient, permițându-le o recuperare ultra rapidă și nu în ultimul rând minimizând leziunile induse chirurgical.

Echipa noastră utilizează un spectru larg de tehnici minim invazive, din care enumerăm câteva: endoscopia cu variantele ei (transnazală, transtoracică, transmusculară, etc), microscopul operator, abordurile trans tubulare și nu în ultimul rând infiltrațiile la toate nivelurile coloanei vertebrale.

www.neurohope.ro

0 user(s) are reading this topic

0 members, 0 guests, 0 anonymous users

Forumul Softpedia foloseste "cookies" pentru a imbunatati experienta utilizatorilor Accept
Pentru detalii si optiuni legate de cookies si datele personale, consultati Politica de utilizare cookies si Politica de confidentialitate