Legea lui Moore descrie o tendință pe termen lung în istoria mașinilor de calcul: numărul de tranzistori care pot fi plasați pe un circuit integrat se dublează aproximativ la fiecare doi ani.
(Wiki)
Textul de mai sus reprezinta legea lui Moore, asa cum o descrie Wikipedia. Insa aceasta pare a-si pierde din relevanta o data cu trecerea timpului.
Daca in 2011 am ajuns la 2.600.000.000 de tranzistori intr-un cip, ei bine, imi vine greu sa cred ca in 2014 vom avea peste 5.200.000.000 de transistori intr-un microprocesor.
Producatorii vor trebui sa obtina mai multa performanta si mai multa eficienta folosind tehnologiile actuale, iar Intel face fix acest lucru prin Ivy Bridge. Noul model de transistori 3D ofera o imbunatatire a performantelor de pana 20% cu o reducere a consumului de energie electrica de panala 50% pentru aceleasi performante. In cazul procesoarelor ULV performantele pot fi crescute cu pana la 37%– vesti bune pentru ultrabook-uri.
Procesul este explicat chiar de catre intel, in clipul urmator:
Uitandu-ne insa mai departe, putem arunca o privire in viitorul microprocesoarelor asa cum este el imaginat de Michio Kaku, luand in calcul quantum computing, molecular computing etc..
Concluzia este ca legea lui Moore desi actuala, sta sub semnul intrebarii: pana cand?
O data cu atingerea limtelor fizice ale tehnologiilor bazate pe silicon, vom avea noi tehnologii pregatite sa le ia locul. Pe care dintre cele mentionate ati paria?
SoC e de viitor
@virgil: intr-adevar, noile modificari din Ivy Bridge aduc cele mai multe imbunatatiri placii grafice integrate.
In acelasi timp, alti producatori mizeaza din ce in ce mai mult pe SoC pentru platformele mobile – insa limitarile tehnologiei actuale nu vor asigura – cel putin din punct de vedere grafic – performantele cip-urilor dedicate.
Cu permisiunea ta Ionut… atat cei de la vikipedia, cat si cei care au facut clipul, cat si cam toata lumea care crede ca aia e o lege, sunt niste dobitoci. Moore nu a facut decat sa analizeze evolutia, sa faca o constatare, si mai apoi o presupunere.
Cat despre viitor? Oricare ar fi el, e bun, daca ne uitam la trecut. Acum aprox 20-30 de ani aveam PC-uri cat o masina de spalat, acum le tinem in palma. :)))
Cat despre nenea japonezu, om de stiinta, ii urmaresc emisiunile pe Discovery Science si pot spune ca are idei chiar bune, care respecta intr-adevar legile fizicii cunoscute. INSA, nici una din ideile sale nu are transpunere in realitate. Este IMPOSIBIL, de realizat ceea ce el isi imagineaza, cu tehnologia actuala, chiar daca respecta toata teoria posibila. Practia e a draq de grea, iar hardwareul actual nu face fata unor asemenea proiecte. 🙂 Insa candva, vor deveni realitate. Am toata increderea.
Oricum… curand vom vedea PC-uri dual-cpu… asa cum exista placi grafice dual-gpu (care pana la urma, sunt un pc mai mic, cu functionalitate restransa doar pe domeniul graficii).
ma refer… dual-cpu fiind ceva comun… ca asa, si acum exista dual-cpu, insa e mai „grele„ :))
@Ciprian: nu am studiat in detaliu munca lui Moore, dar constatarea lui are baze reale. Daca ne luam dupa interpretari e posibil sa iesim putin din zona de aplicare.. pana la urma si Murphy are legi.. 🙂
Momentan ideile japonezului pot parea in afara practicii curente. Sa nu uitam insa ca avem materiale ce pot fi ocolite de catre lumina (oferind o pseudo-invizibilitate) sau ca acum cativa ani, calculatoarele erau cat un etaj de cladire :).
Legat de PC-uri, nu stiu daca este nevoie neaparat de dual-cpu. Avem deja multi-core, multi-thread. Procesarea paralela cred ca este suficienta pentru piata consumer in acest moment. Piata serverelor are deja multi-processor.
Legat de GPU-uri ai perfecta dreptate si uite totusi cum incet incet tehnologia acestora o ajunge din urma pe cea a CPU-urilor desi abordarea este diferita. La fel cum si abordarea SoC este diferita si de viitor.
Da Ionut, SoC este o solutie pt viitoarele gadgeturi portabile. Insa necesitatea unui sistem de sine stator cu o putere de calcul mai mare decat cea a unui gadget portabil, este iminenta, si din pacate nici softwareul nu trage prea tare de hardware, din pacate.
Momentan noi abia avem aplicatii care sa foloseasca in adevaratul sens al cuvantului 2 nuclee, despre aplicatii care sa foloseasca pe bune 4, sau chiar 6, sau de ce nu 8/12 nuclee, momentan nici o sansa. Insa o sa vina momentul cand o sa ajungem la un x numar maxim de nuclee fizice. Urmatoarea categorie fiind x*y. Adica, fiecare nucleu fizic sa fie impartit in mai multe procesoare semi-fizice. Adica exact ce a facut AMD cu bulldozer. Dar cu siguranta, o sa vina momentul, cand necesitatea unui pc multi-cpu sa fie iminenta. Cu toate ca posibilitatea exista de ceva timp, nu s-a mers in directia aceea, pentru ca devenise inutila odata cu multi-cores procesors. Totusi, candva vom reveni la ea. Si inainte de calculatoarele cuantice, asta este un pas. Avem nevoie de software capabil sa utilizeze corect si eficient multi-cpu, ca sa ajungem sa intelegem macar cum ar putea un calculator cuantic sa functioneze. (pentru ce-i ce nu stiu inca ce e aia, imaginati-va o panza de paianjen. fiecare nod fiind un procesor. sau mai simplu, imaginati-va un creier, pentru cei care stiu cum functioneaza, si au auzit de neuroni)
Legat de Moore. Da, teoria sa se bazeaza pe o analiza a evolutiei, si o deductie practica, si corecta de altfel. Insa nu poate fi numita lege, pentru ca nu este stabilita ca un fundament universal. Lege este Legea gravitatie, care stim ca e aia, indiferent de care parte a universului vorbim. Asta cu… din 2 in 2… e doar o predictie, bazata pe un temei rational, ce-i drept, insa care intr-un anumit punct, se schimba. Deci, nu e lege. In stiinta, legea e ceva universal fundamental. Nu stim ce provoaca gravitatia (defapt avem idee, dar nu avem cum sa dovedim) insa stim ca e acolo, stim ca e masurabila printr-o formula matematica, si mai stim ca in orice colt al cosmosului, acea formula este valabila pentru masurarea fortei gravitationale. Ce zice Moore, clar nu e lege. A fost doar ceva la modul, „din analizele mele, constat ca x lucru se intampla din 2 in 2”. 😀 Ma rog… polemica multa si inutila. Oricum ar fi, clar este evolutie, si este spre binele nostru. Sau nu? ;))
@Ciprian: adevarul e ca aplicatiile chiar nu utilizeaza cum ar trebui resursele fizice ale calculatorului. Rar reuseste o aplicatie sa foloseasca procesorul la 50% si chiar si atunci este ingreunata, desi procesorul nu este folosit la capacitate maxima.
Memoria RAM este si ea incarcata din ce in ce mai mult de programe si intr-adevar, accesul este rapid in multe situatii, dar cu RAM-ul plin si doar cateva aplicatii deschise, atunci cand trec de la o aplicatie la alta, acest lucru nu e instantaneu (bineinteles, procesorul nu trece de 20% nici in acest caz). E posibil ca si Windows-ul sa aloce resurse intr-un mod mai putin eficient. Ar trebui sa testez acest comportament si pe Ubuntu (pe Mac este asemanator).
Legat de Moore… iti dau dreptate.. polemica multa :). Atata timp cat evoluam si noi ca oameni (“fiinte umane”) evolutia tehnologiei este spre binele nostru :).
Dragii mei,sunteti toba de specialisti ( specializati )in informatica.Dar nu priviti si dincolo de stiinta . Ati observat ca aplicatiile utilizeaza un procent mic din resursele fizice.Va intrebati daca evolutia ( stiintelor ) este spre binele nostru. V-ati gandit vreodata cat la suta din cele miliarde de OAMENI de pe planeta utilizeaza aceste beneficii ale stiintei? V-ati intrebat vreodata ce facem noi astia desteptii pentru cei care nu au acces la mai nimic din bunatatile acestui Pamant? Cred ca ati observat ca nimic. Dar va simtiti atat de bine!Si inca ceva: dintre noi astia desteptii, dotatii, mai sunt cativa ( foarte putini ) care sunt si mai destepti ca noi si au in mana puterea acestei stiinte si fac ce vor muschii lor pe aceasta Planeta, inclusiv sa dirijeze vietile a miliarde de oameni.Iar noi dotatii, specialistii stam cu nasul in tehnologii si ne simtim atat de bine !!! Spuneti si voi, nu e dragut?
Va salut, cu muuulta stima, Bologa Gh.