Chirurgia spinală minim invazivă
Chirurgia spinală minim invazivă oferă pacienților oportunitatea unui tratament eficient, permițându-le o recuperare ultra rapidă și nu în ultimul rând minimizând leziunile induse chirurgical. Echipa noastră utilizează un spectru larg de tehnici minim invazive, din care enumerăm câteva: endoscopia cu variantele ei (transnazală, transtoracică, transmusculară, etc), microscopul operator, abordurile trans tubulare și nu în ultimul rând infiltrațiile la toate nivelurile coloanei vertebrale. www.neurohope.ro |
Ce este si cum functioneaza Inteligenta Artificiala (discutie generala)
#19
Posted 19 February 2023 - 07:11
Ce nu poate face abacul și nici chatGpt este că în baza experienței deciziilor vechi sa ia decizii noi optimizate și, pe de altă parte, deoarece inteligenta pare să descrie un pattern evolutiv iarăși ce nu pot ele ar fi sa evolueze independent versus entropie.
Ele nu evoluează nici versus greșeli. Nu învață ca supraviețuitorii din greșeli. Momental AI nu evoluează, oamenii "evoluează" și învață să reprogrameze AI Nu este inteligenta AI, este inteligenta omului. Ceea ce duce catre o aberație în a masora IQ unei cutii bagate in priza. IQ va fi de îndată ce cutia va face ceva sa se scoată din priza , este necesară "mutația", variația ieșirii din tipar, supraviețuirea și adaptarea. |
#20
Posted 19 February 2023 - 10:05
Sinmbad, on 19 februarie 2023 - 07:11, said:
Momental AI nu evoluează, oamenii "evoluează" și învață să reprogrameze AI Din punctul ast de vedere, fara sa aiba o bucla de feedback, putem zice ca nu are cum sa evolueze. Trec decenii si el tot aia face, pe aceleasi cunostinte. Dar el are o reprezentare a dialogului si al contextului. Si ala e generat atat de el cat si de participantul la dialog. Probabil ca si aici, el incearca sa minimizeze o functie, care descrie gradul de satisfactie, deci are capabilitatea de a se adapta, de a evolua (din perspectiva umana). Insa, nu strict ChatGPT-ul, dar urmatorul sau altul deja existent, ar putea avea si aceasta capabilitate. Totul tine de bucla de feedback. Refacerea modelelor si reprezentarilor asupra notiunilor, probabil ca dureaza mult timp, deoarece minimizarea unei functiicare sa cuprinda absolut toate notiunile, necesita un timp probabil nonliniar cu sirul de biti de input. Fiind un algoritm non O(n) sau noncvszi- O(n) , nu se poate implementa pe un computer clasic. Dar, ... dar.. avem deja quantum anealers, dispozitive care pot gasi minimul unei functii pe date in timp O(n) (sau pe-aproape, gen O(N logN) Sau tehnica simulated anealing , capabila sa gaseasca minimul unei functii pe o functie care se updateaza, in timp cvasiliniar, prin procedee pur stohastice, asemanatoare mecanicii statistice (temperatura, echilibru termic). Eu nu stiu cum functioneaza Chat GPT sau cum ar putea beneficia de aceste tehnici, insa ma gandesc ca ar putea sa se updateze in timp real, atata timp cat un algoritm care face asta ar fi posibil sa ruleze pe o masina. Atat mai lipseste. Un update in timp real si o bucla de feedback, care sa influenteze modelul, pentru a putea evolua. Bucla de feedback e ceva foarte puternic. Chiar si pe un spatiu unidimensional, produce sisteme de o complexitate nesperata. O simpla reactie de feedback in electronica, poate produce sisteme haotice, cu atractori, cu tot ce trebuie pentru a nu mai putea fi predictibil in functionare. In bucla de feedback, efectul e bagat inapoi ca si cauza pentru el insusi. Circuitul de control devine mediul ambiant in cazul unei fiinte care evolueaza, si interlocutorul, in cazul unui bot de chat. Cat timp botul isi rafineaza raspunsurile maximizand un deziderat, putem spune ca evolueaza. |
#21
Posted 19 February 2023 - 11:00
Ceva interesant(cel putin pentru mine) mi-a venit in minte, cand compuneam textul de mai sus.
Locul natural de studiu al feedbackului se afla in teoria controlului sistemelor. Aceasta teorie functioneaza pe premisa ca un sistem produce un semnal unidirectional liniar in raport cu inputul(sau serializabil catre unui unidimensional, liniar in raport cu inputul), are un input unidimensional (sau serializabil catre unul) si are in permanenta conectat la el un subsistem sau un sistem exterior de control, si studiaza functia de transfer input->output, conditionata de parametrii ssubsistemului(sau sistemului exterior) de control. In teorie, presupunerile astea sunt minime, si cam orice sistem pe care ni-l putem inchipui, il respecta, sau il putem transforma intr-unul care le resecta.. Conditia de serializabilitate intr-un semnal unidirectional(sau sir de biti), e comuna tuturor sistemelor, exceptie celor quantice sau celor computational reversibile, sisteme care inca sunt la inceput in ceea ce priveste cunoasterea profunda a lor. Sistemele computational reversibile, sunt cele care-si propun intr-o prima etapa eliminarea Chandrasekhar limit, in ceea ce priveste consumul de energie pentru procesare. Ele sunt studiate la nivel teoretic deocamdata, deoarece hardware nu am ajuns inca acolo, unde aceasta limita sa conteze. Dar e un vector de explorare, unde deja exista niste concluzii cu privire la cum trebuie sa arate un asemenea sistem (reversibil computational). Bun! Deci avem sisteme care primesc input un semnal, scot pe output un semnal printr-o functie de transfer liniara, ontrolata de catre un subsistem de feedback cu un numar de parametri. Rezultatele din teoria controlului sistemelor sunt urmatoarele: - stabilitatea sistemului e caracterizata de polii unei ecuatii de tip rational polinomiale, care sunt in numar egal cu parametrii subsistemului de control. Exista discriminanti, care produc trecerea de la stabilitate la instabilitate, deci locul natural de modelare a acestor lucruri e in multimea numerelor complexe. - pentru ca un sistem sa se comporte haotic, nepredictibil, reteaua trebuie sa aiba minim 2 parametri (sau 2 variabile de memorie cu valori reale) - Un sistem stabil, derulat inapoi in timp, in general e un sistem instabil. Doar in zona in care discriminantii sunt zero sistemul se pastreaza stabil (stabilitate labila) - Un sistem instabil, derulat inapoi in timp de cele mai multe ori este tot instabil, insa se poate obtine stabilitatea lui, prin manipularea parametrilor subsistemului de control, care sa duca discriminantii la zero, caz in care stabilitatea lui e tot labila. ori o alta conditie impusa asupra tuturor parametrilor, care trebuie sa genereze toti polii in zona de instabilitate. Doar inversarea unui astfel de sistem in timp poate produce un sistem stabil. Deci stabil si instabil nu sunt chiar doua notiuni complementare, exceptie cazul in care ai un singur parametru in subsistemul de control. Iar ideea de derulat in timp inainte-inapoi, corespunde cu un steady state, in sens Markovian, unde nu mai conteaza directia timpului. O retea markoviana ruleaza in absenta semnalului de input pana la infinit sa extraga acea stare de echilibru steady. Ca idee. Dar ideea spre care vreau sa ajung e ca, bucla de feedback necesita ajustare in absenta semnalului de input pentru a converge inspre un sistem "dezirabil" Iar sistemul dezirabil e unul care ruleaza la fel deruland timpul inapoi, deoarece e obtinut printr-o conditie de minim. In absenta semnalului de input, reteaua de feedback se poate recalibra si ajusta, astfel incat sa "anticipeze" un semnal mai "dezirabil" pe output, in momentul in care va primi din nou acelasi tip de input. Adica, parametrii astia se pot tuna, intr-o perioada de inactivitate a sistemului (input=0), printr-o tehnica de tip retea Markov, care anticipeaza starea de stabilitate a sistemului In teoria retelelor de tip markov, instabilitatea e invers, rareori instabila si de cele mai multe ori stabila. Fara input, un sistem se poate recalibra catre un steady state stabil in general. Iar starea finala steady, e aia in care directia curgerii timpului nu conteaza. Si.. unde voiam sa ajung? Nu cumva, starea asta de input=0, timp in care subsistemul de control sa-si recalibreze parametrii e strict necesara pentru a produce sisteme stabile? Adica, cu presupunerile alea din teoria sistemelor, care sugereaza chestia asta, nu cumva rezulta ca si noi, oamenii avem nevoie de acel input=0 ? Adica de somn. Rolul somnului inca nu e elucidat si eu nul dintre cele mai ciudate gauri in cunoasterea umana. Se pare ca orice organism cat de cat evoluat are nevoie de somn, iar somnul in sine nu e doar o "relaxare a muschilor" ci si o necesitate a sistemului de control, sistemul nervos, pentru a fi capabil sa produca in mod convergent solutii (parametrii procesului de feedback prin care este conectat la lumea inconjuratoare). Chestia asta sa aiba cumva legatura cu stabilitatea sistemelor si cu stabilitatea retelelor de tip Markov, care produc o stare care sa controleze un sistem independent de sensul de curgere a timpului. Mie mi se pare ceva gros de tot, ca in viitor sa descoperim cu ajutorul unui bot sau prin incercarea de a obtine botul perfect, sa descoperim ca somnul e o consecinta directa a acestui lucru. Si ca daca vrem ca botul sa nu doarma, trebuie sa iesim din zona computationala clasica, (cu porti logice), macar in zona computationala reversibila (cu porti logice reversibile, daca nu cumva chiar in zona computationala cuantica (unde portile logice sunt musai reversibile). Mi se pare interesanta chestia asta. Edited by maccip, 19 February 2023 - 11:11. |
#22
Posted 19 February 2023 - 12:30
Quote
o bucla de feedback, care sa influenteze modelul Relativ la asta, atentie la atentie: https://en.wikipedia...achine learning Relativ la toate povestile astea nemuritoare, cine crede ca aia de fac cercetare pe asemenea domeniu sunt atat de prosti incat ei nu s-au gandit deja la 'solutii' daca sunt fezabile? Eu nu cred... Pe de alta parte, unii nu inteleg complexitatea spatiului multi-dimensional implicat si o dau in cvasi-liniaritati aiuristice. Quote
Deci avem sisteme care primesc input un semnal, scot pe output un semnal printr-o functie de transfer liniara, ontrolata de catre un subsistem de feedback cu un numar de parametri. Fara neliniaritate, practic o retea de-aia s-ar traduce intr-o singura inmultire cu o matrice si gata, maccip a rezolvat non-problema! Edited by parabellum, 19 February 2023 - 12:32. |
#23
Posted 19 February 2023 - 12:58
Sinmbad, on 19 februarie 2023 - 07:11, said:
Ceea ce duce catre o aberație în a masora IQ unei cutii bagate in priza. Dezvoltatorii spun ca este robotul este o inteligenta artificiala, tu sari cu IQ. Sinmbad, on 18 februarie 2023 - 23:50, said: AI poate fi distructiv indiferent de IQ. maccip, on 19 februarie 2023 - 10:05, said:
Atat mai lipseste. Un update in timp real si o bucla de feedback, care sa influenteze modelul, pentru a putea evolua. Cand ii spui robotului, "ai gresit", si el se corecteaza nu este "feedback in timp real" ? feedback-ul este bidirectional. Edited by MarianG, 19 February 2023 - 12:59. |
#24
Posted 19 February 2023 - 13:08
L-am intrebat ce-i cu butoanele alea si el mi-a raspuns ca nu le baga in seama.
E feedback in timp real, dar in cadrul contextului dialogului. El nu-si imbunatateste modelul pe care lucreaza, ci doar isi creeaza un model al contextului discutiei (probabil total diferit decat cel pe care a fost antrenat pentru "intelegere" de limbaj.. E tot feedback, dar in alt context, nu in contextul "imbunatatirii" lui , ca bot. Lasat asa, tot la fel va raspunde si peste un deceniu. In sensul asta, inputul tau, nu constituie pentru el o inchidere a unei bucle de feedback din care sa invete prin adaptare, nu la nivelul lui ca si entitate, cu doar la nivelul instantei (agentului) care vorbeste cu tine. Adica strict la nivelul dialogului curent, unde probabil are alt tip de reprezentare a notiunilor discutate, nu unul de tip spatiu vectorial, ci unul de tip arbore(speculez aici). |
#25
Posted 19 February 2023 - 13:42
O alta analogie pe care o vad eu aici, cu omul ca interpretor de informatie "serializabila" (notiuni, concepte), e faptul ca ambele sisteme (botul si omul) au cate 2 modele, care (sigur la bot si foarte probabil si la om), apartin din pdv categoric unor clase diferite de procese.
In psihologie, se zice ca omul are doua sisteme drin careproceseaza informatiile din mediu. Unul de natura constienta, altul de natura subconstienta. Primul e serializabil (exprimabil pe gura, prin notiuni), celalalt neserializabil (nu poate fi copiat intr-un alt container/creier decat prin intermediul primului sistem, constient). Si, exista niste caracteristici definitorii sau caracteristici ce decurg din aceasta impartire. Sistemul subconstient care face totul rapid, preprogramat, fara efort si sistemul constient care interactioneaza prin notiuni, exprimabile in cuvinte, lenes dar productiv, capabil sa se reconfigureze, capabil sa invete. Asa si botul. Are un sistem preexistent care functioneaza pe baza unui model, antrenat, avand reprezentari interne ale notiunilor, cu operatii (matematice) izomorfe cu operatiile asupra notiunilor (relatii cuantificatori de valoare). Si al doilea sistem, care se construieste in timpul dialogului cu tine, prin care reprezentarile notiunilor sunt asezate arborescent(sau graf, sau altcumva), bazat pe relatiile preexistente si cuantificatorii preexistenti (care constituie componenta neserializabila). Structura respectiva pe care opereaza acest sistem "constient", adica interpretorul propriuzis, instanta, agentul care vorbeste cu tine, fiind una de natura serializabila, (automat capabila sa-si salveze contextul). Poate e o coincidenta, sau o "potrivire" a unor lucruri deja existente, insa e posibil sa fie si o necesitate a procesului de gandire conceptual, prin care ne definim notiunile prin concepte si relatiile dintre acestea, prin care fiecare notiune "inseamna" ceva, iar aceasta "insemnatate" e construita algoritmic, de la idei primare, terminale (idei platonice, sa zicem) inspre notiuni complicate, care necesita invatare, constructii formale pe semantici primare pentru a obtine produse de nivel superior din pdv conceptual. E posibil si acest aspect sa fie mai bine relevat de inteligenta artificiala si evolutia ei, evolutia intelegerii mecanismelor ei. O dovada in plus de sprijin a ideii o constituie si faptul ca, procesele de clasificare a notiunilor, formelor, chestiilor, bazate pe automate, se realizeaza practic prin reducerea dimensionalitatii spatiului de input. Ai 2000 de poze de oameni pe care le bagi intr-un algoritm de recunoastere faciala, sa zicem, iar acesta produce mai intai o reducere a dimensionalitatii spatiului de valori posibile(ale pixelilor), intr-o multime "rezonabila" (din perspectiva umana, sau multiplu conectata din perspectiva masina), Fie ca-i vorba de o tehnica bazata pe retele neuronale, fie ca-i vorba de o tehnica bazata pe procesare date in bloc, matriceala, ambele tehnici au in comun un tip de dihotomie similara cu sistemele constient vs subconstient. In sensul ca, datele de antrenare sunt distribuite in reteaua neuronala, aintr-un mod neserializabil, pe cand datele furnizate de retea sunt perfect serializabile, contin un fel de "semnificatie". La fel si metode matriceale, care lucreaza in spiritul si ideea reducerii dimensionalitatii prin procedee cu eigenvalues (un scalar se comporta ca o matrice pe anumiti vectori proprii), genu. Singular Value Decomposition. Pe singular value decomposition, avem o matrice de date brute, de regula dreptunghiulara, (foarte dreptunghiulara cu lungimea mult mai mare decat latimea), care se scrie ca un produs de 3 matrici. Una mica, ortogonala, alta diagonala (cu valorile proprii, clasificarea pe "caracteristici") si una tot ortogonala, de dimensiuni colosale, care nici macar nu necesita a fi reprezentata in memorie. Aia din urma e de fapt partea neserializabila, care nu se poate copia de pe un divais pe altul. Ma rog, se poate, insa copierea respectiva daca nu e una verbatim, clonare, nu functioneaza deloc, nu merge aproximata. Cumva, orice algoritm conceput panaacum de clasificare, prin reducerea dimensionalitatii datelor de intrare, ne cam indreapta spre directia asta, a necesitatii existentei a doua tipuri de date, cu care masina sa obtina dezideratul. Una asambland ideea de "constient" si una ideea de "subconstient". More or less. Si ar fi interesant de cunoscut daca nu cumva acest lucru e de fapt o necesitate izvorata insasi din modalitatea asta de a procesa informatiile in mod conceptual. |
#26
Posted 19 February 2023 - 17:56
Pai si nu e destul in cadrul dialogului? Sau altfel spus al topicului pe care vrei sa il discuti cu el?
|
#27
Posted 19 February 2023 - 23:34
Quote
Lasat asa, tot la fel va raspunde si peste un deceniu. Asa-i ca nu mai pare atat de inteligenta Imbecilitatea Artificiala? Chestiile astea au 'memorie' pe termen scurt, sa pretinzi sa invete in timp real - pe termen lung - cat 'discuta' nu e deloc fezabil din foarte multe motive (foarte costisitor computational + ca ar invata prostii patentate). Edited by parabellum, 19 February 2023 - 23:35. |
#28
Posted 20 February 2023 - 00:34
maccip, on 19 februarie 2023 - 13:08, said:
E feedback in timp real, dar in cadrul contextului dialogului. |
|
#29
Posted 21 February 2023 - 11:29
Quote
faptul ca, procesele de clasificare a notiunilor, formelor, chestiilor, bazate pe automate, se realizeaza practic prin reducerea dimensionalitatii spatiului de input Uneori se intampla asa. Alteori e pe dos: https://en.wikipedia..._vector_machine Citat relevant: Quote
SVMs can efficiently perform a non-linear classification using what is called the kernel trick, implicitly mapping their inputs into high-dimensional feature spaces. Apoi clasificarea se poate realiza prin adaugarea unei 'link function', de exemplu functia sigmoida pentru regresia logistica sau softmax pentru mai mult de doua clase). |
#30
Posted 23 February 2023 - 17:11
Ca tot s-a despartit pe sectiunea de 'cum functioneaza', pun articolul aici: https://arxiv.org/abs/1706.03762
Cu asta a pornit treaba de s-a ajuns la hypeul actual. In articolul original e o arhitectura encoder-decoder, GPT e doar decoder, BERT e encoder. Tot in articolul asta s-a furnizat o metoda de a coda pozitia in input, putandu-se inlocui RNNurile (r vine de la recurent, pentru cine nu stie) anterioare (care au ceva deficiente, s-a incercat sa se rezolve o parte cu https://en.wikipedia...ort-term_memory dar tot nu au devenit atat de eficiente ca transformerele). |
#31
Posted 23 February 2023 - 18:39
Un aspect e că inteligența artificială tot va evolua.
Mi se pare relevant acest articol, vechi (The Artificial Intelligence Revolution: Part 1 - Wait But Why), care zice despre Inteligența Artificial încă din 2015, și face tot felul de predicții. |
#32
Posted 25 February 2023 - 00:55
Cei de la Meta se lauda ca au scos un model cu parametri mai putini decat GPT3, dar care il bate pe majoritatea benchmarkurilor si in plus e antrenat pe date publice.
Mai mult decat atat, e disponibil pe github. Mai multe, aici: https://ai.facebook....-llama-meta-ai/ (cu linkuri la articol). Aici e githubul: https://github.com/f...kresearch/llama |
#33
Posted 25 March 2023 - 14:39
Întrebarea inițială era ce este inteligenta, iar răspunsul este unul complex și subiectiv. Inteligența poate fi definită în multe moduri și poate fi măsurată prin diverse teste și criterii. Există diferite opinii și teorii cu privire la ceea ce înseamnă inteligența și cum poate fi ea măsurată.
În general, putem spune că inteligența este o capacitate cognitivă care ne permite să rezolvăm probleme, să învățăm, să gândim logic, să analizăm și să comunicăm eficient. În mod tradițional, testele de inteligență, cum ar fi QI-ul, au fost utilizate pentru a evalua aceste capacități cognitive. Cu toate acestea, trebuie să fim conștienți de faptul că testele de inteligență au fost criticate pentru că pot fi influențate de factori socio-culturali și de prejudecăți. Testele de inteligență nu pot capta întreaga complexitate și diversitate a abilităților și capacităților umane. În ceea ce privește ChatGPT, el este un model de limbaj natural dezvoltat de OpenAI, care are capacitatea de a genera texte, răspunsuri și conversații într-un mod similar cu cel al unui om. Acesta este antrenat pe baza unor seturi de date imense și poate învăța să îndeplinească diferite sarcini, precum traducerea, rezolvarea de probleme, răspunsul la întrebări etc. În ceea ce privește abilitățile specifice de inteligență, putem spune că ChatGPT are o capacitate puternică de a face analogii și de a gândi axiomatic, dar capacitățile sale de a crea ceva nou sunt limitate de faptul că el funcționează pe baza seturilor de date și algoritmilor pre-existenți. Capacitatea sa de a avea o "inteligență afectivă" este discutabilă, deoarece acesta este un concept mai degrabă uman decât matematic. |
|
#34
Posted 25 March 2023 - 18:04
Quote
într-un mod similar cu cel al unui om Structura unui transformer nu e analoaga cu ce se intampla in creierul unui om. Se poate argumenta de exemplu pentru retelele convolutive ca ar fi cumva similare cu ce exista la om pe partea vizuala, dar cand e vorba de transformere pe partea de limbaj, nici vorba. Quote
are o capacitate puternică de a face analogii și de a gândi axiomatic Edited by parabellum, 25 March 2023 - 18:08. |
#35
Posted 28 March 2023 - 17:43
Pentru cine e curios, am implementat un proiect 'de la zero' (pentru algebra liniara am folosit Eigen, totusi) deocamdata culminand cu o retea neuronala 'multilayer perceptron'. Detalii aici:
https://forum.softpe...4#entry29855061 Urmeaza sa mai aranjez un pic codul si sa afisez ceva rezultate mai bine, apoi o sa adaug si ceva descrieri in README. |
#36
Posted 02 April 2023 - 10:35
Cred ca are un bug chatgpt si, oricum, suna prea pompos *inteligenta artificiala*. AI-ul culege informatie, o proceseaza dupa anumiti algoritmi, dar nu are logica, deci nu se poate numi inteligenta, fie ea si artificiala.
Spoiler
Edited by MarianG, 02 April 2023 - 13:25.
|
Anunturi
▶ 1 user(s) are reading this topic
0 members, 1 guests, 0 anonymous users