I nesten 20 år utviklet prosessorer seg utrolig raskt. I henhold til Moores lov doblet CPU-er hastigheten omtrent hver attende måned fram til midten av 2000-tallet, da selskaper begynte å utforske ny design med flere kjerner. Etter hvert vil prosessorer bli firekjerner, deretter sekskjerne, deretter oktokjerner og mer, da teknologibedrifter begynte å lete etter måter å designe de raskeste og mest effektive maskinene på..

Nå, å legge til flere kjerner til CPUen, betyr ikke nødvendigvis at datamaskinen var raskere, men tillot heller å kjøre flere programmer samtidig. Når man trodde at grensene for prosessering med en enkelt kjerne var nådd, utviklet ingeniører smarte måter å fortsette å øke kraften og kapasiteten til datamaskiner.

Det nærmeste til en blockchain-ekvivalent til en CPU ville være en node. En node er en elektronisk enhet som er koblet til et blockchain-nettverk og lagrer en kopi av blockchain. Noder tar seg av 3 aspekter av en blockchain.

For det første har de ansvaret for beregningskomponenten. Dette er komponenten som folk flest vil forstå som hashing av transaksjonene og oppretting av blokkene. Det andre elementet er lagring av resultatene i hovedboken, og den tredje komponenten er konsensus, det vil si å kontrollere at dataene er korrekte. Det første og tredje elementet er generelt avhengig av beregningskraften til hver node og hastigheten hver transaksjon kan behandles. Lagringen er avhengig av et litt annet aspekt av ytelsen til en node.

Gjeldende nodeoppsett er der en node består av en datamaskin, egentlig en enkeltkjerne-CPU. Problemet med dette er at for å forbedre ytelsen til nettverket, må du forbedre ytelsen til hver enkelt node.

Forbedring er absolutt nødvendig.

Vi fortsetter å se tilfeller der blokkjeder blir overbelastet; de reduserer farten eller blir for dyre til å brukes. Dette er direkte knyttet til ytelsen til nodene. Ingeniører har måttet være mer intuitive med sine løsninger, og det bør ikke være en overraskelse at det har vært mange måter som blockchain-utviklere har søkt å forbedre denne teknologien..

Vanlige løsninger har vært å prøve å øke blokkstørrelsen (øke hastigheten på at informasjon kan behandles, men dette øker også hastigheten blockchain vokser), og skriver enklere smarte kontrakter, eller forbedre konsensusmekanisme for å gjøre nettverket mindre avhengig av alle noder (som ofte kommer med bivirkningen av å miste noe desentralisering).

Men ingen av disse løsningene adresserer problemet i hjertet av blockchain-skalerbarhetsproblemet – at når blockchain blir mer populært og vellykket, vil det uunngåelig bli et stort etterslep av transaksjoner som må verifiseres med hver påfølgende blokk, og blockchain vil etter hvert redusere farten.

Dette blir ytterligere frustrert når smarte kontraktplattformer, som Ethereum, trenger å kjøre ikke-konkurrerende smarte kontrakter sekvensielt, tar tid og prosessorkraft.

Man kan teoretisk legge til mer ytelse til den ene datamaskinen, men dette kommer raskt ut av proporsjonen for forholdet mellom kostnad og nytte. Sett dette til side, så ville man nå den fysiske grensen for den utviklede teknologien.

Men selv før vi når dette punktet, er det to flere begrensende faktorer som spiller inn. Først ved å kjøre en transaksjon om gangen, vil det tydeligvis være begrensende faktorer ved at hver transaksjon må behandles vil ta tid, og denne minimumstiden kan ikke reduseres ytterligere. Men på et andre nivå har vi den fysiske skrivehastighetsgrensen for datalagring. Du kan ikke fysisk skrive data raskere enn harddisken den er lagret på.

En tilnærming som har utviklet utviklere til nå, er konseptet med å legge til mer enn én datamaskin til en individuell node. På samme måte som en CPU som nå kjører flere kjerner samtidig, aelf har taklet denne tilnærmingen front på.

Problemet med dette ligger i bare to ord: transaksjonsavhengighet. Jeg går nærmere inn på dette i artikkelen min om parallell behandling. Men i det vesentlige, når transaksjonsavhengighet er løst, kan man begynne å legge til flere datamaskiner i den ene noden.

Ved å lage noder som består av flere datamaskiner som kan kjøres parallelt, er aelf i stand til å behandle ikke-konkurrerende transaksjoner samtidig. Akkurat som flere kjerner i en prosessor tillater en datamaskin å kjøre flere programmer samtidig, tillater flere datamaskiner i en node en blokkjede å bekrefte flere transaksjoner samtidig.

Dette betyr også at nodene er skalerbare – det naturlige problemet med å blokkjede tidligere mangel på skalerbarhet. Datamaskiner kan legges til eller trekkes fra noder, noe som betyr at hvis transaksjonene blir mer komplekse, eller det er andre endringer i blockchain, kan nodene tilpasse seg for å møte de nye kravene til blockchain.

Denne fleksibiliteten er avgjørende for ethvert prosjekt som planlegger å vare langt inn i fremtiden.

Dette har løst beregningskomponenten av blockchain-hastigheter, men vi har fortsatt problemet med datalagringshastigheter. aelf har også kommet med en innovativ tilnærming. Det vil si å dele datalagringsprosessen fra beregningskomponenten.

For å forklare dette i enkle termer, kan du si at en aelf-node blir delt i to klynger. En klynge datamaskiner vil fokusere på beregningsprosessene, mens den andre klyngen vil fokusere på datalagringskomponenten. Dette har nå fjernet de fysiske begrensningsfaktorene for begge lag.

Som standard vil blockchain-hovedboken nå bli lagret på en klynge datamaskiner i stedet for på hver eneste datamaskin. Teknisk sett vil det fortsatt eksistere en komplett reskontro på hver node.

Ved å ha denne tilnærmingen trenger aelf bare å legge til en annen datamaskin på en node for å forbedre skalerbarheten til blockchain. Mange prosjekter snakker om at blockchain er skalerbart, men ingen har løst disse kjerneproblemene på en slik måte som fremover beviser det fra flaskehalser.

aelf implementerer en løsning som er levedyktig for dagens og fremtidige behov for adopsjon av blockchain. De har også designet økosystemet på en slik måte at det kan utvikle seg etter fremtidige behov. Dette gjør at elementer som Consensus Protocol kan tilpasse seg hvis en ny protokoll utvikles med høyere sikkerhet, eller kravene til en sidekjede endres.

Aelf har nettopp kunngjort at de ved å bruke denne tilnærmingen var i stand til å lage et stabilt testnett V1.0 som hadde en TPS på 15.000.

For at dette skal være basen som aelf bygger på med en så skalerbar blockchain, er det ikke rart at slike tunge hitters i bransjen har støttet dem og sluttet seg til seg selv som partnere. Dette inkluderer Huobi, Michael Arrington, og FBG Capital bare for å nevne noen.

Aelf er sikkert en av blokkjedene som skal overvåkes i løpet av de neste 12 månedene, og fortsetter å kunngjøre nye partnerskap hver få uker og lansere sitt nettopp i første kvartal 2019.

Hvis du vil lese mer om meg selv eller om meg om generelle nyheter om kryptovaluta, vær så snill besøk bloggen min.

Relatert: Race for Cross-Chain Communication: 11 prosjekter som jobber med Blockchain-interoperabilitet