×
1 Vælg EITC/EITCA-certifikater
2 Lær og tag online eksamener
3 Få dine IT-kompetencer certificeret

Bekræft dine it-færdigheder og -kompetencer under den europæiske it-certificeringsramme fra hvor som helst i verden, helt online.

EITCA Academy

Standard for attestering af digitale færdigheder af European IT Certification Institute med det formål at understøtte udviklingen af ​​det digitale samfund

Log ind på din konto af enten dit brugernavn eller e-mail-adresse

OPRET EN KONTO Glemt din adgangskode?

FORGÅ DIN DETALJER?

AAH, vent, jeg HUSK NU!

OPRET EN KONTO

HAR DU ALLEREDE EN BRUGER?
EUROPÆISKE INFORMATIONSTEKNOLOGIER CERTIFICERINGSAKADEMI - AT TESTE DINE FAGLIGE DIGITALE FÆRDIGHEDER
  • TILMELD DIG
  • LOGIN
  • INFO

EITCA Academy

EITCA Academy

Det Europæiske Institut for Certifikation af Informationsteknologi - EITCI ASBL

Certificeringsmyndighed

EITCI Instituttet

Bruxelles, Den Europæiske Union

Regulerende europæisk it-certificering (EITC) -standard til støtte for it-professionalisme og det digitale samfund

  • CERTIFIKATER
    • EITCA-AKADEMIER
      • EITCA ACADEMIES-KATALOG<
      • EITCA/CG COMPUTER GRAFIK
      • EITCA/ER INFORMATIONSSIKKERHED
      • EITCA/BI FORRETNINGSINFORMATION
      • EITCA/KC Nøglekompetencer
      • EITCA/EG E-REGERING
      • EITCA/WD WEB UDVIKLING
      • EITCA/AI KUNSTIG INTELLIGENCE
    • EITC-CERTIFIKATER
      • EITC CERTIFIKATER KATALOG<
      • COMPUTERGRAFIKCERTIFIKATER
      • WEB-DESIGNCERTIFIKATER
      • 3D-DESIGNCERTIFIKATER
      • KONTOR DETS CERTIFIKATER
      • BITCOIN BLOCKCHAIN ​​CERTIFIKAT
      • WORDPRESS CERTIFIKAT
      • CLOUD PLATFORM CERTIFIKATNY
    • EITC-CERTIFIKATER
      • INTERNETCERTIFIKATER
      • KRYPTOGRAFICERTIFIKATER
      • FORRETNINGSDET CERTIFIKATER
      • TELEVERKSCERTIFIKATER
      • PROGRAMMERINGSCERTIFIKATER
      • DIGITAL PORTRETSCERTIFIKAT
      • WEBUDVIKLINGSCERTIFIKATER
      • DYPE LÆRINGSCERTIFIKATERNY
    • CERTIFIKATER FOR
      • EU OFFENTLIG ADMINISTRATION
      • LÆRERE OG UDDANNELSE
      • DET SIKKERHEDSFORLIGERE
      • GRAFIK DESIGNERE & KUNSTNERE
      • BUSINESSMEN OG MANAGERS
      • BLOCKCHAIN-UDVIKLERE
      • WEB-UDVIKLERE
      • CLOUD AI EKSPERTERNY
  • SPECIAL
  • TILSKUD
  • SÅDAN VIRKER DET
  •   IT ID
  • OM
  • KONTAKT
  • MIN BESTILLING
    Din nuværende ordre er tom.
EITCIINSTITUTE
CERTIFIED

EITCA/IS Information Technologies Security Academy

Onsdag 29 December 2021 by admin

EITCA/IS Information Technologies Security Academy er en EU-baseret, internationalt anerkendt standard for ekspertiseerklæring, der omfatter viden og praktiske færdigheder inden for cybersikkerhed.

Læreplanen for EITCA/IS Information Technologies Security Academy dækker faglige kompetencer inden for områderne beregningsmæssig kompleksitet, klassisk kryptografi (herunder både privat-nøgle symmetrisk kryptografi og offentlig nøgle asymmetrisk kryptografi), kvantekryptografi (med vægt på QKD, kvantenøgledistribution) ), introduktion til kvanteinformation og kvanteberegning (herunder begrebet kvantekredsløb, kvanteporte og kvantealgoritmer med vægt på praktiske algoritmer såsom Shor-faktorisering eller diskrete logfindingsalgoritmer), computernetværk (herunder teoretisk OSIver-model), computersystemsikkerhed (co grundlæggende og avancerede praktiske emner, herunder sikkerhed for mobile enheder), administration af netværksservere (inklusive Microsoft Windows og Linux), webapplikationssikkerhed og webapplikationspenetrationstest (herunder adskillige praktiske penetreringsteknikker).

Opnåelse af EITCA/IS Information Technologies Security Academy-certificeringen attesterer erhvervelse af færdigheder og beståelse af afsluttende eksamener i alle de substituerende europæiske IT-certificeringsprogrammer (EITC), der udgør hele læseplanen for EITCA/IS Information Technologies Security Academy (også tilgængelig separat som enkeltstående EITC-certificeringer) .

Beskyttelse af computersystemer og netværk mod afsløring af oplysninger, tyveri af eller beskadigelse af hardware, software eller de behandlede data, samt afbrydelse eller fejlretning af kommunikation eller leverede elektroniske tjenester, omtales generelt som computersikkerhed, cybersikkerhed eller information teknologi(er) sikkerhed (it-sikkerhed). På grund af verdens funktions voksende afhængighed af computersystemer (herunder sociale og økonomiske planer) og især af internetkommunikation, såvel som trådløse netværksstandarder såsom Bluetooth og Wi-Fi, sammen med voksende udbredelse af såkaldte smarte enheder såsom smartphones , smart-tv'er og forskellige andre enheder, der udgør tingenes internet, bliver feltet it-sikkerhed (cybersikkerhed) stadig vigtigere. På grund af dens kompleksitet med hensyn til sociale, økonomiske og politiske implikationer (herunder dem af national sikkerhed), såvel som kompleksitet med hensyn til involverede teknologier, er cybersikkerhed en af ​​de mest kritiske bekymringer i den moderne verden. Det er også en af ​​de mest prestigefyldte it-specialiseringer, der er karakteriseret ved en stadig stigende efterspørgsel efter højtuddannede specialister med deres færdigheder, der er ordentligt udviklet og attesteret, hvilket kan give en masse tilfredsstillelse, åbne hurtige karriereforløb, give mulighed for involvering i vigtige projekter (inklusive strategiske nationale sikkerhedsprojekter) og muliggør veje til yderligere snævre specialiseringer inden for forskellige områder af dette felt. Jobbet som cybersikkerhedsekspert (eller en cybersikkerhedsmedarbejder i en privat eller offentlig organisation) er krævende, men også givende og meget ansvarligt. Ekspertise inden for både teoretiske grundlag og praktiske aspekter af moderne cybersikkerhed garanterer ikke kun et meget interessant og banebrydende informationsteknologirelateret futuristisk job, men også betydeligt højere lønninger og hurtige karriereudviklingsspor på grund af betydelige mangler hos certificerede cybersikkerhedsprofessionelle og udbredte kompetencegab relateret til både teoretisk viden og praktiske færdigheder inden for informationsteknologisikkerhed. It-sikkerhedsparadigmer har udviklet sig hurtigt i de seneste år. Dette er ikke overraskende, da sikring af informationsteknologier er tæt forbundet med arkitekturen af ​​systemer, der lagrer og behandler information. Formidling af internettjenester, især inden for e-handel, har drevet allerede dominerende andel af økonomien til virtuelle data. Det er ingen hemmelighed, at i øjeblikket foregår de fleste økonomiske transaktioner globalt gennem elektroniske kanaler, hvilket naturligvis kræver et ordentligt sikkerhedsniveau.

For at forstå cybersikkerhed og for at være i stand til at udvikle yderligere teoretiske og praktiske færdigheder inden for dette felt bør man først forstå det grundlæggende i beregningsteori (beregningskompleksitet) såvel som det grundlæggende i kryptografi. Det første felt definerer grundlaget for datalogi og det andet (kryptografi) definerer grundlaget for sikker kommunikation. Kryptografi i sig selv var til stede i vores civilisation fra oldtiden for at give midler til at beskytte kommunikationshemmeligheden og i mere generelle vendinger for at give dens ægthed og integritet. Moderne klassisk kryptografi er blevet opdelt i informationsteoretisk (ubrydelig) symmetrisk (privat nøgle) kryptografi (baseret på engangskodekryptering, dog ude af stand til at løse problemet med nøglefordelingen gennem kommunikationskanaler) og betinget sikker asymmetrisk (offentlig). -nøgle) kryptografi (oprindeligt løst problemet med nøglefordelingen og senere udviklet til kryptosystemer, der arbejder med såkaldte offentlige nøgler, der skulle bruges til datakryptering og var bundet i asymmetriske relationer af beregningsmæssig kompleksitet med private nøgler, svære at beregne ud fra deres tilsvarende offentlige nøgler, der kunne bruges til at dekryptere data). Offentlig nøglekryptografi, som praktisk talt overgår anvendelsespotentialet for privatnøglekryptografi, har domineret internettet og er i øjeblikket en hovedstandard for sikring af privat internetkommunikation og e-handel. I 1994 har der imidlertid været et stort gennembrud, som har vist, at kvantealgoritmer kan bryde de fleste almindelige offentlige nøglekryptosystemer (f.eks. RSA-krypteringen baseret på faktoriseringsproblemet). På den anden side har kvanteinformation givet et helt nyt paradigme for kryptografi, nemlig quantum key distribution (QKD) protokollen, der gør det muligt praktisk at implementere ubrydelige (informationsteoretiske) sikre kryptosystemer for første gang i historien (ikke engang brudbare med enhver kvantealgoritme). En ekspertise inden for disse områder af moderne udvikling af cybersikkerhed lægger grundlaget for praktiske færdigheder, der kan anvendes til at afbøde cybertrusler mod netværk, computersystemer (inklusive servere, men også personlige computere og mobile enheder) og forskellige applikationer (vigtigst webapplikationer). Alle disse felter er dækket af EITCA/IS Information Technologies Security Academy, der integrerer ekspertise inden for både teoretiske og praktiske områder inden for cybersikkerhed, og supplerer færdigheder med ekspertise i penetrationstest (herunder praktiske web-pentesting-teknikker).

Siden fremkomsten af ​​internettet og den digitale forandring, der er sket i de senere år, er begrebet cybersikkerhed blevet et almindeligt emne i både vores professionelle og personlige liv. I de sidste 50 års teknologiske fremskridt har cybersikkerhed og cybertrusler fulgt udviklingen af ​​computersystemer og netværk. Indtil internettets opfindelse i 1970'erne og 1980'erne var computersystemer og netværkssikkerhed primært henvist til den akademiske verden, hvor computervirus og netværksindtrængen begyndte at tage fart med stigende tilslutningsmuligheder. I 2000'erne blev cyberrisici og cybersikkerhed institutionaliseret efter stigningen i vira i 1990'erne. Storstilede angreb og regeringslovgivning begyndte at dukke op i 2010'erne. Willis Wares session i april 1967 ved forårets fælles computerkonference, såvel som den efterfølgende udgivelse af Ware-rapporten, var milepæle i computersikkerhedens historie.

Den såkaldte CIA-treenighed af fortrolighed, integritet og tilgængelighed blev etableret i en NIST-publikation fra 1977 som en klar og nem tilgang til at forklare væsentlige sikkerhedskrav. Mange mere omfattende rammer er siden blevet præsenteret, og de er stadig under udvikling. Der var dog ingen alvorlige computerrisici i 1970'erne og 1980'erne, da computere og internettet stadig var på et tidligt udviklingsstadium med relativt lav forbindelse, og sikkerhedstrusler blev let opdaget i begrænsede operationsdomæner. Ondsindede insidere, der fik uautoriseret adgang til vigtige dokumenter og filer, var den mest almindelige kilde til fare. De brugte ikke malware eller netværksbrud til økonomisk fordel i de første år, på trods af at de eksisterede. Etablerede computervirksomheder, såsom IBM, begyndte at udvikle kommercielle adgangskontrolsystemer og computersikkerhedssoftware i anden halvdel af 1970'erne.

Tiden med ondsindede computerprogrammer (orme eller vira, hvis de havde programmeret egenskaber til selvreplikation og smitsomme operationer, spredte sig selv i computersystemer gennem netværk og andre midler) begyndte i 1971 med den såkaldte Creeper. Creeper var et BBN-udviklet eksperimentelt computerprogram, der blev betragtet som den første computerorm. Reaper, den første antivirussoftware, blev udviklet i 1972. Den blev bygget for at migrere hen over ARPANET og eliminere Creeper-ormen. En gruppe tyske hackere begik den første dokumenterede handling af cyberspionage mellem september 1986 og juni 1987. Banden hackede sig ind i netværk af amerikanske forsvarsfirmaer, universiteter og militærbaser og solgte dataene til den sovjetiske KGB. Markus Hess, gruppens leder, blev fanget den 29. juni 1987. Den 15. februar 1990 blev han fundet skyldig i spionage (sammen med to medsammensvorne). Morris-ormen, en af ​​de første computerorme, blev spredt via internettet i 1988. Den fik stor omtale i de almindelige medier. Kort efter at National Center for Supercomputing Applications (NCSA) udgav Mosaic 1.0, den første webbrowser, i 1993, begyndte Netscape at skabe SSL-protokollen. I 1994 havde Netscape SSL version 1.0 klar, men den blev aldrig frigivet til offentligheden på grund af en række store sikkerhedsfejl. Replay-angreb og en sårbarhed, der gjorde det muligt for hackere at ændre ukrypterede beskeder leveret af brugere, var blandt de opdagede mangler. Netscape udgav på den anden side version 2.0 i februar 1995.

I USA har National Security Agency (NSA) ansvaret for at beskytte amerikanske informationsnetværk samt at indsamle udenlandsk efterretningstjeneste. Disse to ansvarsområder er uforenelige. Som en defensiv foranstaltning er det at gennemgå software, finde sikkerhedsproblemer og gøre en indsats for at reparere fejlene en del af beskyttelsen af ​​informationssystemer. At udnytte sikkerhedshuller til at indhente information er en del af indsamling af efterretninger, hvilket er en fjendtlig handling. Når sikkerhedssvagheder er rettet, kan de ikke længere udnyttes af NSA. NSA undersøger meget brugt software for at identificere sikkerhedshuller, som den derefter bruger til at iværksætte offensive angreb mod amerikanske konkurrenter. Agenturet tager sjældent defensive handlinger, såsom at afsløre sikkerhedsproblemer til softwareudviklere, så de kan rettes. I en periode virkede den offensive strategi, men andre lande, såsom Rusland, Iran, Nordkorea og Kina, udviklede efterhånden deres egen offensive kapacitet, som de nu udnytter mod USA. NSA-entreprenører udviklede og solgte simple et-klik-løsninger og angrebsværktøjer til amerikanske agenturer og allierede, men værktøjerne fandt til sidst vej i hænderne på udenlandske modstandere, som har været i stand til at studere dem og udvikle deres versioner. NSA's egne hacking-kapaciteter blev hacket i 2016, og Rusland og Nordkorea har udnyttet dem. Modstandere, der er ivrige efter at konkurrere i cyberkrigsførelse, har hyret NSA-arbejdere og entreprenører til ublu lønninger. For eksempel begyndte USA og Israel i 2007 at angribe og beskadige udstyr, der blev brugt i Iran til at forfine nukleare materialer ved at udnytte sikkerhedshuller i Microsoft Windows-operativsystemet. Iran gengældte ved at investere massivt i sin egen cyberkrigsførelse, som det straks begyndte at bruge mod USA. Det skal bemærkes, at cybersikkerhedsområdet i øjeblikket behandles bredt som et strategisk nationalt sikkerhedsfelt og midler til mulig fremtidig krigsførelse.

EITCA/IS-certifikatet giver en omfattende attestation af faglige kompetencer inden for området it-sikkerhed (cybersikkerhed) lige fra fundamenter til avanceret teoretisk viden, såvel som praktiske færdigheder i klassiske såvel som kvantekryptosystemer, sikker computernetværk, computersystemsikkerhed (herunder sikkerhed af mobile enheder) serversikkerhed og applikationssikkerhed (herunder webapplikationssikkerhed og penetrationstest).

EITCA/IS Information Technologies Security Academy er et avanceret trænings- og certificeringsprogram med det refererede højkvalitets open-access omfattende didaktiske indhold organiseret i en trin-for-trin didaktisk proces, udvalgt til at adressere det definerede læseplan, uddannelsesmæssigt svarende til international post -kandidatstudier i cybersikkerhed kombineret med digital cybersikkerhedsuddannelse på brancheniveau og overgå standardiserede uddannelsestilbud inden for forskellige områder af anvendelig it-sikkerhed, der er tilgængelig på markedet. Indholdet af EITCA Academy Certification-programmet er specificeret og standardiseret af European Information Technologies Certification Institute EITCI i Bruxelles. Dette program opdateres successivt løbende på grund af fremskridt inden for cybersikkerhedsområdet i overensstemmelse med retningslinjerne fra EITCI Institute og er underlagt periodiske akkrediteringer.

EITCA/IS Information Technologies Security Academy-programmet omfatter relevante europæiske IT-certificerings-EITC-programmer. Listen over EITC-certificeringer inkluderet i det komplette EITCA/IS Information Technologies Security Academy-program, i overensstemmelse med specifikationerne fra European Information Technologies Certification Institute EITCI, er præsenteret nedenfor. Du kan klikke på de respektive EITC-programmer, der er anført i en anbefalet rækkefølge, for individuelt at tilmelde dig hvert EITC-program (alternativt til at tilmelde dig det komplette EITCA/IS Information Technologies Security Academy-program ovenfor) for at fortsætte med deres individuelle læseplaner og forberede dig til tilsvarende EITC-eksamener. Beståelse af alle eksamener for alle substituerende EITC-programmer resulterer med fuldførelse af EITCA/IS Information Technologies Security Academy-programmet og med tildeling af den tilsvarende EITCA Academy-certificering (suppleret med alle dens substituerende EITC-certificeringer). Efter at have bestået hver enkelt EITC-eksamen vil du også få udstedt det tilsvarende EITC-certifikat, før du fuldfører hele EITCA Academy.

EITCA/IS Information Technologies Security Academy konstituerende EITC-programmer

110€

EITC/IS/CCTF Computational Complexity Theory Fundamentals

Tilmeld dig nu
110€

Grundlæggende om EITC/IS/CCF klassisk kryptografi

Tilmeld dig nu
110€

EITC/IS/ACC avanceret klassisk kryptografi

Tilmeld dig nu
110€

Grundlæggende for EITC/IS/CSSF computersystemer

Tilmeld dig nu
110€

EITC/IS/ACSS Advanced Computer Systems Security

Tilmeld dig nu
110€

EITC/QI/QIF Quantum Information Fundamentals

Tilmeld dig nu
110€

EITC/IS/QCF Quantum Cryptography Fundamentals

Tilmeld dig nu
110€

EITC/IS/CNF Computer Networking Fundamentals

Tilmeld dig nu
110€

EITC/IS/WSA Windows Server Administration

Tilmeld dig nu
110€

EITC/IS/LSA Linux Systemadministration

Tilmeld dig nu
110€

EITC/IS/WASF Web Applications Security Fundamentals

Tilmeld dig nu
110€

EITC/IS/WAPT webapplikations penetrationstest

Tilmeld dig nu
Læs mere
Ingen kommentarer

EITC/IS/WSA Windows Server Administration

Torsdag 21 oktober 2021 by admin

EITC/IS/WSA Windows Server Administration er det europæiske IT-certificeringsprogram for administration og sikkerhedsstyring i Windows Server, et Microsofts førende netværksoperativsystem til servere.

Læseplanen for EITC/IS/WSA Windows Server Administration fokuserer på viden og praktiske færdigheder i administration og sikkerhedsstyring i Microsoft Windows Server organiseret i følgende struktur, omfattende omfattende videodidaktisk indhold som reference for denne EITC-certificering.

Windows Server er et varemærke for en gruppe af serveroperativsystemer udgivet af Microsoft siden 2003. Efter Linux er det et af de mest populære operativsystemer til netværksservere. Det inkluderer Active Directory, DNS-server, DHCP-server, gruppepolitik samt mange andre populære funktioner til avancerede netværksservere. I modsætning til Linux (det mest populære operativsystem til servere), er Microsoft Windows Server ikke open source, men en proprietær software.

Siden 2003 har Microsoft udgivet en række serveroperativsystemer under Windows Server-varenavnet. Windows Server 2003 var den første Windows-serverudgave, der blev tilbudt under dette mærke. Windows NT 3.1 Advanced Server var den første serverudgave, efterfulgt af Windows NT 3.5 Server, Windows NT 3.51 Server, Windows NT 4.0 Server og Windows 2000 Server. Active Directory, DNS Server, DHCP Server, Group Policy og mange andre populære funktioner blev inkluderet i Windows 2000 Server for første gang.

Microsoft yder typisk ti års support til Windows Server med fem års almindelig support og yderligere fem års udvidet support. Disse udgaver inkluderer også en omfattende desktop-oplevelse med grafisk brugergrænseflade (GUI). Server Core og Nano Server-varianter blev introduceret med Windows Server 2008 R2 for at reducere OS-fodaftrykket. For at skelne disse opdateringer fra halvårlige udgivelser omtalte Microsoft dem som "langsigtede serviceudgivelser" mellem 2015 og 2021. (se nedenfor).

Microsoft har udgivet en større version af Windows Server hvert fjerde år i de sidste seksten år, med en mindre version udgivet to år efter en større udgivelse. Suffikset "R2" blev tilføjet til titlerne på de mindre versioner. Microsoft overtrådte dette mønster i oktober 2018, da det udgav Windows Server 2019, som skulle være "Windows Server 2016 R2." Derudover er Windows Server 2022 en lille forbedring i forhold til den tidligere version.

Følgende er inkluderet i de fulde udgivelser:

  • Windows Server 2003 er et serveroperativsystem (april 2003)
  • Windows Server 2003 R2 er en version af Windows Server 2003. (december 2005)
  • Windows Server 2008 er et serveroperativsystem udviklet af Microsoft (februar 2008)
  • Windows Server 2008 R2 er den seneste version af Windows Server (oktober 2009)
  • Windows Server 2012 er et serveroperativsystem (september 2012)
  • Windows Server 2012 R2 er den seneste version af Windows Server (oktober 2013)
    2016 er den seneste version af Windows Server (september 2016)
  • Windows Server 2019 er den seneste version af Windows Server (oktober 2018)
  • Microsoft Windows Server 2022 (august 2021)

Hovedfunktionerne i Windows Server inkluderer:

  • Sikkerhed med flere beskyttelseslag: forbedring af organisationens sikkerhedsposition ved at starte med operativsystemet.
  • Azures hybride muligheder: øge it-effektiviteten ved at udvide datacentre til Azure.
  • Platform til en række applikationer: Giver udviklere og it-professionelle de værktøjer, de har brug for til at skabe og implementere en række apps ved hjælp af en applikationsplatform.
  • Integration med Azure: Valgmuligheder som Azure Hybrid Benefit og Extended Security Updates er tilgængelige.

Microsofts Active Directory (AD) er en bibliotekstjeneste til Windows-domænetværk. En Active Directory-domænecontroller godkender og autoriserer alle brugere og computere i et Windows-domænetværk, samt tildeler og håndhæver sikkerhedspolitikker og installerer eller opgraderer software. Et skema beskriver den slags objekter, der kan gemmes i en Active Directory-database, samt de kvaliteter og information, som objekterne repræsenterer. En skov er en gruppe af træer, der deler et globalt katalog, biblioteksskema, logisk struktur og bibliotekskonfiguration. Et træ er en samling af et eller flere domæner forbundet i et transitivt tillidshierarki i et kontinuerligt navneområde. Et domæne er en logisk samling af objekter (computere, brugere og enheder), der deler en Active Directory-database. DNS-navnestrukturen, som er Active Directory-navneområdet, bruges til at identificere domæner. Brugere på ét domæne kan få adgang til ressourcer på et andet domæne takket være trusts. Når et underordnet domæne oprettes, oprettes der automatisk tillidsforhold mellem det overordnede og underordnede domæne. Domænecontrollere er servere, der er konfigureret med Active Directory Domain Services-rollen og er vært for en Active Directory-database for et specifikt domæne. Websteder er grupper af indbyrdes forbundne undernet på et bestemt geografisk sted. Ændringer foretaget på én domænecontroller replikeres til alle andre domænecontrollere, der deler den samme Active Directory-database (det vil sige inden for det samme domæne). Knowledge Consistency Checker-tjenesten (KCC) administrerer trafik ved at skabe en replikeringstopologi af webstedslinks baseret på de definerede websteder. Ændringsmeddelelse aktiverer domænecontrollere til at starte en pull-replikeringscyklus, hvilket resulterer i hyppig og automatisk intrasite-replikering. Intersite-replikeringsintervaller er normalt kortere og afhængige af den tid, der er gået, snarere end på ændringsmeddelelse. Mens de fleste domæneopdateringer kan udføres på enhver domænecontroller, kan nogle aktiviteter kun udføres på en bestemt server. Disse servere omtales som "operation masters" (oprindeligt Flexible Single Master Operations eller FSMO'er). Schema Master, Domain Naming Master, PDC Emulator, RID Master og Infrastructure Master er operations master positionerne. Et domænes eller skovs funktionsniveau bestemmer, hvilke avancerede funktioner der er tilgængelige i skoven eller domænet. For Windows Server 2016 og 2019 tilbydes forskellige funktionsniveauer. Alle domænecontrollere bør konfigureres til at give det højeste funktionsniveau for skove og domæner. Til administrative formål bruges containere til at gruppere Active Directory-objekter. Domænet, Indbygget, Brugere, Computere og Domænecontrollere er standardbeholderne. Organisationsenheder (OU'er) er objektbeholdere, der bruges til at levere et administrativt hierarki til et domæne. De understøtter både administrativ delegering og implementeringen af ​​gruppepolitikobjekter. Active Directory-databasen bruges i et domæne til at godkende brugere og computere for alle domænets computere og brugere. En arbejdsgruppe er en alternativ opsætning, hvor hver maskine er ansvarlig for at godkende sine egne brugere. Alle maskiner i domænet har adgang til domænekonti, som vedligeholdes i Active Directory-databasen. Hver lokal computers SAM-database (Security Account Manager) gemmer lokale konti, som kun er tilgængelige for den pågældende computer. Distributionsgrupper og sikkerhedsgrupper er de to typer brugergrupper, der understøttes af Active Directory. E-mail-applikationer, såsom Microsoft Exchange, bruger distributionsgrupper. Brugerkonti er grupperet i sikkerhedsgrupper med det formål at anvende privilegier og tilladelser. Omfanget af Active Directory-grupper kan indstilles til Universal, Global eller Domain Local. Enhver konto i skoven kan være medlem af en universel gruppe, som kan tildeles enhver ressource i skoven. Enhver konto i domænet kan være medlem af en global gruppe, og de kan allokeres til enhver ressource i skoven. Enhver konto i skoven kan være medlem af en lokal domænegruppe, som kan allokeres til enhver domæneressource. Andre universelle grupper og globale grupper fra skoven kan findes i universelle grupper. Globale grupper fra samme domæne kan indeholde yderligere globale grupper. Lokale domænegrupper kan indeholde både universelle skovgrupper og globale grupper samt domænelokale grupper fra samme domæne. Microsoft anbefaler at bruge globale grupper til at organisere brugere og lokale domænegrupper for at arrangere ressourcer til styring af konti og ressourcer.

For at gøre dig nærmere bekendt med certificeringspensum kan du udvide og analysere nedenstående tabel.

EITC/IS/WSA Windows Server Administration Certification Curriculum refererer til didaktisk materiale med åben adgang i en videoform. Læreprocessen er opdelt i en trin-for-trin struktur (programmer -> lektioner -> emner), der dækker relevante læseplansdele. Der tilbydes også ubegrænset rådgivning med domæneeksperter.
Tjek for detaljer om certificeringsproceduren Sådan fungerer det.

Læs mere
Ingen kommentarer

EITC/IS/LSA Linux Systemadministration

Torsdag 21 oktober 2021 by admin

EITC/IS/LSA Linux System Administration er det europæiske it-certificeringsprogram for administration og sikkerhedsstyring i Linux, et open source-netværksoperativsystem, der ofte bruges på servere med en verdensomspændende førende position.

Læseplanen for EITC/IS/LSA Linux System Administration fokuserer på viden og praktiske færdigheder inden for administration og sikkerhedsstyring i Linux organiseret inden for følgende struktur, der omfatter omfattende videodidaktisk indhold som reference for denne EITC-certificering.

Linux er en samling af open source Unix-lignende operativsystemer, som generelt accepteres som en førende standard for netværksservere operativsystemer, baseret på Linus Torvalds' Linux-kerne, som oprindeligt blev udgivet i 1991. Linux-kernen, samt medfølgende systemsoftware og biblioteker, er almindeligvis bundtet i en Linux-distribution, hvor mange af dem er licenseret under GNU-projektet. Selvom mange Linux-distributioner bruger udtrykket "Linux", foretrækker Free Software Foundation udtrykket "GNU/Linux" for at understrege betydningen af ​​GNU-software.

Debian, Fedora og Ubuntu er alle populære Linux-distributioner. Red Hat Enterprise Linux og SUSE Linux Enterprise Server er to kommercielle distributioner. Et vinduessystem som X11 eller Wayland, såvel som et skrivebordsmiljø som GNOME eller KDE Plasma, er inkluderet i desktop Linux-distributioner. Serverdistributioner kan inkludere grafik eller ikke inkludere en løsningsstack såsom LAMP. Enhver kan producere en distribution til ethvert formål, fordi Linux er en frit omdistribuerbar open source-software.

Linux blev skabt til Intels x86-arkitektur-baserede personlige computere, men det er efterfølgende blevet porteret til flere platforme end noget andet operativsystem. Linux har den største installerede base af alle generelle operativsystemer på grund af dominansen af ​​den Linux-baserede Android på smartphones. På trods af det faktum, at Linux kun bruges af kun 2.3 procent af stationære computere, dominerer Chromebook, som kører det Linux-kernebaserede Chrome OS, det amerikanske K-12 uddannelsesmarked og tegner sig for omkring 20 % af alt salg af bærbare computere under 300 USD. . Linux er det mest populære styresystem til servere (ca. 96.4 procent af top 1 million webservere kører Linux), såvel som andre store jernsystemer som mainframe-computere og TOP500-supercomputere (siden november 2017, efterhånden at have elimineret alle konkurrenter).

Linux er også tilgængelig til indlejrede systemer, som er enheder, hvis operativsystem ofte er indbygget i firmwaren og er meget tilpasset systemet. Routere, automatiseringsstyringer, smart home-teknologi, fjernsyn (Samsung og LG Smart TV bruger henholdsvis Tizen og WebOS), biler (Tesla, Audi, Mercedes-Benz, Hyundai og Toyota bruger alle Linux), digitale videooptagere, videospilkonsoller , og smartwatches er alle eksempler på Linux-baserede enheder. Avionikken i Falcon 9 og Dragon 2 er baseret på en tilpasset version af Linux.

Linux er et af de mest kendte eksempler på gratis og open source softwaresamarbejde. I henhold til reglerne for dets individuelle licenser, såsom GNU General Public License, kan kildekoden bruges, opdateres og distribueres kommercielt eller ikke-kommercielt af enhver.

Linux-kernen blev ikke designet, men snarere udviklet gennem naturlig udvælgelse, ifølge flere open source-udviklere. Selvom Unix-arkitekturen fungerede som et stillads, mener Torvalds, at "Linux udviklede sig med en masse mutationer - og fordi mutationerne var mindre end tilfældige, var de hurtigere og mere rettede end alfa-partikler i DNA." De revolutionære egenskaber ved Linux er ifølge Eric S. Raymond sociale snarere end tekniske: før Linux blev sofistikeret software møjsommeligt bygget af små grupper, men "Linux voksede op på en meget anderledes måde. Den blev hacket på næsten uforvarende fra starten af ​​store grupper af frivillige, som udelukkende kommunikerede via internettet. Den dumt simple teknik med at udgive hver uge og modtage input fra hundredvis af brugere inden for få dage, hvilket genererer en form for hurtig darwinistisk udvælgelse af mutationer bragt af udviklere, snarere end strenge standarder eller diktatur, blev brugt til at bevare kvaliteten." "Linux blev ikke designet, det udviklede sig," siger Bryan Cantrill, en ingeniør for et konkurrerende OS, men han ser dette som en begrænsning og hævder, at nogle funktioner, især dem, der er relateret til sikkerhed, ikke kan udvikles til, fordi "dette er ikke Det er ikke et biologisk system i sidste ende, det er et softwaresystem." Et Linux-baseret system er et modulært Unix-lignende operativsystem, der henter meget af sin arkitektoniske inspiration fra Unix-principper udviklet i 1970'erne og 1980'erne. En monolitisk kerne, Linux-kernen, bruges i et sådant system til at håndtere proceskontrol, netværk, perifer adgang og filsystemer. Enhedsdrivere er enten indbygget i kernen direkte eller tilføjet som moduler, der indlæses, mens systemet kører.

GNU-brugerlandet er et vigtigt træk ved de fleste Linux-baserede systemer, med Android som en undtagelse. Værktøjskæden er en bred samling af programmeringsværktøjer, der er afgørende for Linux-udvikling (inklusive de kompilatorer, der bruges til at bygge selve Linux-kernen), og coreutils implementerer mange grundlæggende Unix-værktøjer. Projektets implementering af C-biblioteket fungerer som en indpakning for Linux-kernens systemopkald, der er nødvendige for kerne-brugerpladsgrænsefladen, værktøjskæden er en bred samling af programmeringsværktøjer, der er afgørende for Linux-udvikling (inklusive kompilatorerne, der bruges til at bygge selve Linux-kernen) , og coreutils implementerer mange grundlæggende Unix-værktøjer. Bash, en populær CLI-skal, er også udviklet som en del af projektet. De fleste Linux-systemers grafiske brugergrænseflade (eller GUI) er baseret på en implementering af X Window System. For nylig har Linux-fællesskabet arbejdet på at erstatte X11 med Wayland som erstatningsskærmserverprotokol. Linux-systemer drager fordel af adskillige andre open source-softwareinitiativer.

Et Linux-systems installerede komponenter inkluderer følgende:

  • GNU GRUB, LILO, SYSLINUX eller Gummiboot er eksempler på bootloadere. Dette er en software, der kører, når computeren tændes, og efter firmwareinitialiseringen for at indlæse Linux-kernen i computerens hovedhukommelse.
  • Et init-program, såsom sysvinit eller det nyere systemd, OpenRC eller Upstart. Dette er den indledende proces startet af Linux-kernen, og den sidder øverst i procestræet; init er med andre ord, hvor alle andre processer starter. Det starter opgaver som systemtjenester og login-prompter (uanset om det er grafisk eller i terminaltilstand).
  • Softwarebiblioteker er samlinger af kode, der kan bruges af andre programmer. Den dynamiske linker, der håndterer brugen af ​​dynamiske biblioteker på Linux-systemer, der anvender eksekverbare filer i ELF-format, er kendt som ld-linux.so. Hvis systemet er sat op, så brugeren selv kan generere applikationer, vil header-filer blive inkluderet for at beskrive de installerede bibliotekers grænseflade. Bortset fra GNU C Library (glibc), som er det mest udbredte softwarebibliotek på Linux-systemer, er der andre flere biblioteker, såsom SDL og Mesa.
  • GNU C-biblioteket er standard C-standardbiblioteket, som er påkrævet for at køre C-programmer på et computersystem. Alternativer til indlejrede systemer er blevet udviklet, inklusive musl, EGLIBC (en glibc-klon, der oprindeligt blev brugt af Debian) og uClibc (bygget til uClinux), men de sidste to vedligeholdes ikke længere. Bionic, Androids eget C-bibliotek, bruges.
  • GNU coreutils er standardimplementeringen af ​​grundlæggende Unix-kommandoer. For indlejrede enheder er der alternativer såsom copyleft BusyBox og BSD-licenseret Toybox.
  • Widget-værktøjssæt er biblioteker til at skabe softwareapplikationers grafiske brugergrænseflader (GUI'er). GTK og Clutter, skabt af GNOME-projektet, Qt, udviklet af Qt-projektet og ledet af The Qt Company, og Enlightenment Foundation Libraries (EFL), der hovedsageligt vedligeholdes af Enlightenment-teamet, er blandt de tilgængelige widgetværktøjssæt.
  • Et pakkehåndteringssystem, såsom dpkg eller RPM, bruges til at administrere pakker. Pakker kan også bygges fra kilde-tarballs eller binære tarballs.
  • Kommandoskaller og vinduesmiljøer er eksempler på brugergrænsefladeprogrammer.

Brugergrænsefladen, ofte kendt som skallen, er typisk en kommandolinjegrænseflade (CLI), en grafisk brugergrænseflade (GUI) eller kontroller koblet til den medfølgende hardware. Den typiske brugergrænseflade på stationære pc'er er normalt grafisk, mens CLI ofte er tilgængelig via terminalemulatorvinduer eller en separat virtuel konsol.

Tekstbaserede brugergrænseflader eller CLI-skaller anvender tekst til både input og output. Bourne-Again Shell (bash), som blev skabt til GNU-projektet, er den mest udbredte shell under Linux. CLI'en bruges udelukkende af de fleste Linux-komponenter på lavt niveau, inklusive forskellige dele af brugerlandet. CLI er særligt velegnet til at automatisere gentagne eller forsinkede operationer, og det giver mulighed for relativt let kommunikation mellem processer.

GUI-skallerne, pakket med fulde desktop-miljøer såsom KDE Plasma, GNOME, MATE, Cinnamon, LXDE, Pantheon og Xfce, er de mest populære brugergrænseflader på desktop-systemer, mens der findes en række andre brugergrænseflader. X Window System, også kendt som "X", understøtter de fleste populære brugergrænseflader. Det muliggør netværksgennemsigtighed ved at tillade, at en grafisk applikation, der opererer på én maskine, vises på en anden, hvor en bruger kan interagere med den; nogle X Window System-udvidelser er dog ikke i stand til at fungere over netværket. Der er flere X display-servere, hvoraf den mest populære er X.Org Server, som er referenceimplementeringen.

Serverdistributioner kan give en kommandolinjegrænseflade til udviklere og administratorer, men kan også omfatte en skræddersyet grænseflade til slutbrugere, der er skræddersyet til systemets use-case. Denne brugerdefinerede grænseflade tilgås via en klient, der kører på et andet system, som ikke nødvendigvis er Linux-baseret.

For X11 er der flere typer vinduesadministratorer, herunder fliselægning, dynamisk, stabling og sammensætning. Vinduesadministratorer interagerer med X Window System og giver dig mulighed for at kontrollere placeringen og udseendet af individuelle programvinduer. Simpler X-vindueadministratorer som dwm, ratpoison, i3wm eller herbstluftwm har en minimalistisk grænseflade, hvorimod mere komplekse vinduesadministratorer som FVWM, Enlightenment eller Window Maker inkluderer yderligere funktioner som en indbygget proceslinje og temaer, men er stadig lette sammenlignet med skrivebordsmiljøer. Vinduesadministratorer såsom Mutter (GNOME), KWin (KDE) og Xfwm (xfce) er inkluderet i de fleste desktopmiljøers grundlæggende installationer, men brugere kan vælge at bruge en anden vindueshåndtering, hvis de foretrækker det.

Wayland er en skærmserverprotokol, der blev designet til at erstatte X11-protokollen, men den har endnu ikke fået udbredt brug fra 2014. Wayland kræver, i modsætning til X11, ikke en ekstern vinduesmanager eller sammensætningsmanager. Som et resultat fungerer en Wayland-kompositor som en skærmserver, vinduesmanager og sammensætningsmanager alt i én. Waylands referenceimplementering er Weston, selvom Mutter og KWin fra GNOME og KDE bliver konverteret til Wayland som selvstændige skærmservere. Siden version 19 er Enlightenment blevet overført med succes.

For at gøre dig nærmere bekendt med certificeringspensum kan du udvide og analysere nedenstående tabel.

EITC/IS/LSA Linux System Administration Certification Curriculum refererer til didaktisk materiale med åben adgang i en videoform. Læreprocessen er opdelt i en trin-for-trin struktur (programmer -> lektioner -> emner), der dækker relevante læseplansdele. Der tilbydes også ubegrænset rådgivning med domæneeksperter.
Tjek for detaljer om certificeringsproceduren Sådan fungerer det.

Læs mere
Ingen kommentarer

EITC/IS/CNF Computer Networking Fundamentals

Mandag, 18 oktober 2021 by admin

EITC/IS/CNF Computer Networking Fundamentals er det europæiske IT-certificeringsprogram om teori og praktiske aspekter af grundlæggende computernetværk.

Læseplanen for EITC/IS/CNF Computer Networking Fundamentals fokuserer på viden og praktiske færdigheder i fundamenter i computernetværk organiseret inden for følgende struktur, der omfatter omfattende videodidaktisk indhold som reference for denne EITC-certificering.

Et computernetværk er en samling af computere, der deler ressourcer mellem netværksknuder. For at kommunikere med hinanden bruger computerne standardkommunikationsprotokoller på tværs af digitale forbindelser. Telekommunikationsnetværksteknologier baseret på fysisk kablede, optiske og trådløse radiofrekvenssystemer, der kan samles i en række netværkstopologier, udgør disse sammenkoblinger. Personlige computere, servere, netværkshardware og andre specialiserede eller generelle værter kan alle være noder i et computernetværk. Netværksadresser og værtsnavne kan bruges til at identificere dem. Værtsnavne fungerer som etiketter, der er lette at huske for noder, og de ændres sjældent, efter at de er tildelt. Kommunikationsprotokoller såsom internetprotokollen bruger netværksadresser til at lokalisere og identificere noder. Sikkerhed er et af de mest kritiske aspekter af netværk. Disse EITC-pensum dækker grundlaget for computernetværk.

Et computernetværk er en samling af computere, der deler ressourcer mellem netværksknuder. For at kommunikere med hinanden bruger computerne standardkommunikationsprotokoller på tværs af digitale forbindelser. Telekommunikationsnetværksteknologier baseret på fysisk kablede, optiske og trådløse radiofrekvenssystemer, der kan samles i en række netværkstopologier, udgør disse sammenkoblinger. Personlige computere, servere, netværkshardware og andre specialiserede eller generelle værter kan alle være noder i et computernetværk. Netværksadresser og værtsnavne kan bruges til at identificere dem. Værtsnavne fungerer som etiketter, der er lette at huske for noder, og de ændres sjældent, efter at de er tildelt. Kommunikationsprotokoller såsom internetprotokollen bruger netværksadresser til at lokalisere og identificere noder. Sikkerhed er et af de mest kritiske aspekter af netværk.

Transmissionsmediet, der bruges til at formidle signaler, båndbredde, kommunikationsprotokoller til at organisere netværkstrafik, netværksstørrelse, topologi, trafikkontrolmekanisme og organisatoriske mål er alle faktorer, der kan bruges til at klassificere computernetværk.

Adgang til World Wide Web, digital video, digital musik, delt brug af applikations- og lagringsservere, printere og faxmaskiner og brug af e-mail- og instant messaging-programmer er alle understøttet via computernetværk.

Et computernetværk bruger flere teknologier såsom e-mail, instant messaging, online chat, lyd- og videotelefonsamtaler og videokonferencer til at udvide interpersonelle forbindelser via elektroniske midler. Et netværk gør det muligt at dele netværk og computerressourcer. Brugere kan få adgang til og bruge netværksressourcer såsom at udskrive et dokument på en delt netværksprinter eller få adgang til og bruge et delt lagerdrev. Et netværk giver autoriserede brugere adgang til oplysninger, der er gemt på andre computere på netværket, ved at overføre filer, data og andre former for information. For at fuldføre opgaver udnytter distribueret databehandling computerressourcer spredt over et netværk.

Pakkemode-transmission bruges af de fleste nuværende computernetværk. Et pakkekoblet netværk transporterer en netværkspakke, som er en formateret dataenhed.

Kontrolinformation og brugerdata er de to typer data i pakker (nyttelast). Kontrolinformationen omfatter information såsom kilde- og destinationsnetværksadresser, fejldetekteringskoder og sekvensinformation, som netværket har brug for for at overføre brugerdata. Kontroldata er typisk inkluderet i pakkeheadere og trailere med nyttelastdata i midten.

Båndbredden af ​​transmissionsmediet kan bedre deles mellem brugere, der bruger pakker, end med kredsløbskoblede netværk. Når en bruger ikke transmitterer pakker, kan forbindelsen fyldes med pakker fra andre brugere, så omkostningerne kan deles med minimal forstyrrelse, så længe linket ikke misbruges. Ofte er den vej, en pakke skal tage gennem et netværk, ikke tilgængelig lige nu. I dette tilfælde er pakken i kø og vil ikke blive sendt, før et link bliver tilgængeligt.

Pakkenetværks fysiske forbindelsesteknologier begrænser ofte pakkestørrelsen til en specifik maksimal transmissionsenhed (MTU). En større besked kan brydes, før den overføres, og pakkerne samles igen for at danne den originale besked, når de ankommer.

Topologier af fælles netværk

De fysiske eller geografiske placeringer af netværksknuder og links har ringe indflydelse på et netværk, men arkitekturen af ​​et netværks sammenkoblinger kan have en betydelig indflydelse på dets gennemstrømning og pålidelighed. En enkelt fejl i forskellige teknologier, såsom bus- eller stjernenetværk, kan få hele netværket til at svigte. Generelt gælder det, at jo flere sammenkoblinger et netværk har, jo mere stabilt er det; alligevel, jo dyrere er det at sætte op. Som et resultat er de fleste netværksdiagrammer organiseret i henhold til deres netværkstopologi, som er et kort over netværksværters logiske relationer.

Følgende er eksempler på almindelige layouts:

Alle noder i et busnetværk er forbundet til et fælles medie via dette medie. Dette var den originale Ethernet-konfiguration, kendt som 10BASE5 og 10BASE2. På datalinklaget er dette stadig en udbredt arkitektur, selvom nuværende fysiske lagvarianter bruger punkt-til-punkt-links til at bygge en stjerne eller et træ i stedet for.
Alle noder er forbundet til en central node i et stjernenetværk. Dette er den almindelige konfiguration i et lille switchet Ethernet LAN, hvor hver klient forbinder til en central netværksswitch, og logisk i et trådløst LAN, hvor hver trådløs klient forbinder til det centrale trådløse adgangspunkt.
Hver knude er forbundet til dens venstre og højre naboknudepunkt og danner et ringnetværk, hvori alle knudepunkter er forbundet, og hver knude kan nå den anden knude ved at krydse knudepunkter til venstre eller højre. Denne topologi blev brugt i token ring netværk og Fiber Distributed Data Interface (FDDI).
Mesh-netværk: hver node er forbundet med et vilkårligt antal naboer på en sådan måde, at hver node har mindst én gennemløb.
Hver node i netværket er forbundet med hver anden node i netværket.
Noderne i et trænetværk er arrangeret i en hierarkisk rækkefølge. Med flere switches og ingen redundant meshing er dette den naturlige topologi for et større Ethernet-netværk.
Den fysiske arkitektur af et netværks noder repræsenterer ikke altid netværkets struktur. FDDI's netværksarkitektur er for eksempel en ring, men den fysiske topologi er ofte en stjerne, fordi alle nærliggende forbindelser kan dirigeres gennem et enkelt fysisk sted. Men fordi almindelige kanaler og udstyrsplaceringer kan repræsentere enkelte fejlpunkter på grund af bekymringer som brande, strømafbrydelser og oversvømmelser, er den fysiske arkitektur ikke helt meningsløs.

Overlay netværk

Et virtuelt netværk, der er etableret oven på et andet netværk, er kendt som et overlejringsnetværk. Virtuelle eller logiske links forbinder overlejringsnetværkets noder. Hvert link i det underliggende netværk svarer til en sti, der kan passere via flere fysiske links. Overlejringsnetværkets topologi kan (og gør det ofte) forskellig fra det underliggende netværks. Mange peer-to-peer-netværk er for eksempel overlay-netværk. De er sat op som noder i et virtuelt netværk af links, der kører over internettet.

Overlay-netværk har eksisteret siden begyndelsen af ​​netværk, hvor computersystemer var forbundet på tværs af telefonlinjer via modemer, før der var et datanetværk.

Internettet er det mest synlige eksempel på et overlejringsnetværk. Internettet blev oprindeligt designet som en forlængelse af telefonnettet. Selv i dag tillader et underliggende netværk af undernetværk med vidt forskellige topologier og teknologi hver internetknude at kommunikere med næsten enhver anden. Metoderne til at kortlægge et fuldt forbundet IP-overlay-netværk til dets underliggende netværk omfatter adresseopløsning og routing.

En distribueret hash-tabel, som kortlægger nøgler til netværksknuder, er et andet eksempel på et overlejringsnetværk. Det underliggende netværk i dette tilfælde er et IP-netværk, og overlejringsnetværket er en nøgleindekseret tabel (virkelig et kort).

Overlay-netværk er også blevet foreslået som en teknik til at forbedre internet-routing, såsom ved at sikre streamingmedier af højere kvalitet gennem kvalitetssikring af service. Tidligere forslag som IntServ, DiffServ og IP Multicast har ikke fået meget indpas, på grund af det faktum, at de kræver, at alle routere i netværket skal ændres. På den anden side, uden hjælp fra internettjenesteudbydere, kan et overlay-netværk trinvist installeres på slut-værter, der kører overlay-protokolsoftwaren. Overlay-netværket har ingen indflydelse på, hvordan pakker dirigeres mellem overlay-noder i det underliggende netværk, men det kan regulere rækkefølgen af ​​overlay-noder, som en besked passerer igennem, før den når sin destination.

Forbindelser til internettet

Elektrisk kabel, optisk fiber og ledig plads er eksempler på transmissionsmedier (også kendt som det fysiske medium), der bruges til at forbinde enheder for at etablere et computernetværk. Softwaren til at håndtere medier er defineret på lag 1 og 2 i OSI-modellen - det fysiske lag og datalinklaget.

Ethernet refererer til en gruppe teknologier, der bruger kobber- og fibermedier i lokalnetværksteknologi (LAN). IEEE 802.3 definerer medie- og protokolstandarder, der tillader netværksenheder at kommunikere over Ethernet. Radiobølger bruges i nogle trådløse LAN-standarder, hvorimod infrarøde signaler bruges i andre. Strømkablet i en bygning bruges til at transportere data i elledningskommunikation.

I computernetværk anvendes følgende kablede teknologier.

Koaksialkabel bruges ofte til lokale netværk i kabel-tv-systemer, kontorbygninger og andre arbejdspladser. Transmissionshastigheden varierer mellem 200 millioner bits i sekundet og 500 millioner bits i sekundet.
ITU-T G.hn-teknologien skaber et lokalt netværk med høj hastighed ved hjælp af eksisterende husledninger (koaksialkabel, telefonlinjer og elledninger).
Kablet Ethernet og andre standarder anvender parsnoede kabler. Det består normalt af fire par kobberledninger, der kan bruges til at overføre både tale og data. Krydstale og elektromagnetisk induktion reduceres, når to ledninger snoes sammen. Overførselshastigheden varierer fra 2 til 10 gigabit per sekund. Der er to typer parsnoede kabler: uskærmet parsnoet (UTP) og skærmet parsnoet (STP) (STP). Hver formular er tilgængelig i en række kategoriklassificeringer, så den kan bruges i en række forskellige situationer.
Røde og blå linjer på et verdenskort
Undersøiske fiberoptiske telekommunikationslinjer er afbildet på et kort fra 2007.
En glasfiber er en optisk fiber. Den bruger lasere og optiske forstærkere til at transmittere lysimpulser, der repræsenterer data. Optiske fibre giver flere fordele i forhold til metallinjer, herunder minimalt transmissionstab og modstandsdygtighed over for elektrisk interferens. Optiske fibre kan samtidigt bære adskillige strømme af data om forskellige bølgelængder af lys ved hjælp af tæt bølgedelingsmultipleksing, som hæver datatransmissionshastigheden til milliarder af bits i sekundet. Optiske fibre bruges i undersøiske kabler, der forbinder kontinenter og kan bruges til lange træk af kabler, der bærer meget høje datahastigheder. Single-mode optisk fiber (SMF) og multi-mode optisk fiber (MMF) er de to primære former for fiberoptik (MMF). Single-mode fiber tilbyder fordelen ved at opretholde et sammenhængende signal over snesevis, hvis ikke hundredvis, af kilometer. Multimode fiber er billigere at terminere, men har en maksimal længde på kun et par hundrede eller endda et par snesevis af meter, afhængigt af datahastigheden og kabelkvaliteten.

Trådløse netværk

Trådløse netværksforbindelser kan dannes ved hjælp af radio eller andre elektromagnetiske kommunikationsmetoder.

Jordbaseret mikrobølgekommunikation gør brug af jordbaserede sendere og modtagere, der ligner paraboler. Mikrobølger på jorden opererer i det lave gigahertz-område, hvilket begrænser al kommunikation til line-of-sight. Relæstationerne er omkring 40 miles (64 kilometer) fra hinanden.
Satellitter, der kommunikerer gennem mikrobølger, bruges også af kommunikationssatellitter. Satellitterne er normalt i geosynkron kredsløb, som er 35,400 kilometer (22,000 miles) over ækvator. Stemme-, data- og tv-signaler kan modtages og videresendes af disse enheder, der kredser om jorden.
Adskillige radiokommunikationsteknologier bruges i cellulære netværk. Systemerne opdeler det dækkede område i flere geografiske grupper. En lav-effekt transceiver betjener hvert område.
Trådløse LAN'er anvender en højfrekvent radioteknologi, der kan sammenlignes med digital cellulær for at kommunikere. Spread spectrum-teknologi bruges i trådløse LAN'er for at tillade kommunikation mellem flere enheder på et lille rum. Wi-Fi er en type trådløs radiobølgeteknologi med åbne standarder defineret af IEEE 802.11.
Frirum optisk kommunikation kommunikerer via synligt eller usynligt lys. Linje-of-sight-udbredelse anvendes i de fleste tilfælde, hvilket begrænser den fysiske placering af forbindelsesanordninger.
Det interplanetariske internet er et radio- og optisk netværk, der udvider internettet til interplanetariske dimensioner.
RFC 1149 var en sjov aprilsnar anmodning om kommentarer til IP via Avian Carriers. I 2001 blev det omsat i praksis i det virkelige liv.
De sidste to situationer har en lang tur-retur-forsinkelse, hvilket resulterer i forsinket tovejskommunikation, men forhindrer ikke transmissionen af ​​enorme mængder data (de kan have høj gennemstrømning).

Noder i et netværk

Netværk er konstrueret ved hjælp af ekstra basale systembygningselementer såsom netværksgrænsefladecontrollere (NIC'er), repeatere, hubs, broer, switche, routere, modemer og firewalls ud over eventuelle fysiske transmissionsmedier. Ethvert givet stykke udstyr vil næsten altid indeholde forskellige byggeklodser og således være i stand til at udføre flere opgaver.

Grænseflader til internettet

Et netværksinterfacekredsløb, der inkluderer en ATM-port.
Et hjælpekort, der fungerer som en ATM-netværksgrænseflade. Et stort antal netværksgrænseflader er forudinstalleret.
En netværksgrænsefladecontroller (NIC) er et stykke computerhardware, der forbinder en computer til et netværk og kan behandle netværksdata på lavt niveau. En forbindelse til at tage et kabel eller en antenne til trådløs transmission og modtagelse samt det relaterede kredsløb kan findes på NIC.

Hver netværksinterfacecontroller i et Ethernet-netværk har en unik Media Access Control (MAC) adresse, som normalt er gemt i controllerens permanente hukommelse. Institute of Electrical and Electronics Engineers (IEEE) vedligeholder og overvåger MAC-adressens unikke karakter for at forhindre adressekonflikter mellem netværksenheder. En Ethernet MAC-adresse er seks oktetter lang. De tre mest betydningsfulde oktetter er tildelt til NIC-producentidentifikation. Disse producenter tildeler de tre mindst signifikante oktetter af hver Ethernet-grænseflade, de bygger udelukkende ved at bruge deres tildelte præfikser.

Hubs og repeatere

En repeater er en elektronisk enhed, der accepterer et netværkssignal og renser det for uønsket støj, før det regenereres. Signalet gentransmitteres ved et højere effektniveau eller til den anden side af forhindringen, så det kan gå længere uden forringelse. Repeatere er nødvendige i de fleste parsnoede Ethernet-systemer til kabelføringer på mere end 100 meter. Repeatere kan være ti eller endda hundredvis af kilometer fra hinanden, når du bruger fiberoptik.

Repeatere arbejder på OSI-modellens fysiske lag, men de tager stadig lidt tid at regenerere signalet. Dette kan resultere i en udbredelsesforsinkelse, som kan kompromittere netværkets ydeevne og funktion. Som et resultat begrænser flere netværkstopologier, såsom Ethernet 5-4-3-reglen, antallet af repeatere, der kan bruges i et netværk.

En Ethernet-hub er en Ethernet-repeater med mange porte. En repeater-hub hjælper med netværkskollisionsdetektion og fejlisolering ud over at rekonditionere og distribuere netværkssignaler. Moderne netværksswitches har for det meste erstattet hubs og repeatere i LAN'er.

Afbrydere og broer

I modsætning til en hub videresender netværksbroer og switcher kun frames til de porte, der er involveret i kommunikationen, men en hub videresender frames til alle porte. En switch kan opfattes som en multi-port bro, fordi broer kun har to porte. Switche har typisk et stort antal porte, hvilket giver mulighed for en stjernetopologi for enheder og kaskadedannelse af yderligere switches.

Datalinklaget (lag 2) i OSI-modellen er det sted, hvor broer og switches opererer, der brobygger trafik mellem to eller flere netværkssegmenter for at danne et enkelt lokalt netværk. Begge er enheder, der videresender datarammer på tværs af porte baseret på MAC-adressen på destinationen i hver frame. Undersøgelse af kildeadresserne for modtagne frames lærer dem, hvordan de forbinder fysiske porte med MAC-adresser, og de videresender kun frames, når det er nødvendigt. Hvis enheden målretter mod en ukendt destinations-MAC, udsender den anmodningen til alle porte undtagen kilden og udleder placeringen fra svaret.

Netværkets kollisionsdomæne er opdelt af broer og switches, mens broadcast-domænet forbliver det samme. Bridging og switching hjælper med at nedbryde et enormt, overbelastet netværk i en samling af mindre, mere effektive netværk, som er kendt som netværkssegmentering.

Routere

ADSL-telefonlinjen og Ethernet-netværkskabelstikkene ses på en typisk hjemme- eller mindre virksomhedsrouter.
En router er en internetarbejdende enhed, der behandler adresserings- eller routinginformationen i pakker for at videresende dem mellem netværk. Routingtabellen bruges ofte i forbindelse med routinginformationen. En router bestemmer, hvor pakker skal sendes videre ved hjælp af sin routingdatabase i stedet for at udsende pakker, hvilket er spild for meget store netværk.

Modemer
Modemer (modulator-demodulator) forbinder netværksknuder gennem ledninger, der ikke er designet til digital netværkstrafik eller trådløs. For at gøre dette modulerer det digitale signal et eller flere bæresignaler, hvilket resulterer i et analogt signal, der kan tilpasses til at give de passende transmissionskvaliteter. Lydsignaler leveret over en konventionel telefonforbindelse blev moduleret af tidlige modemer. Modemer bruges stadig i vid udstrækning til digital subscriber line (DSL) telefonlinjer og kabel-tv-systemer, der anvender DOCSIS-teknologi.

Firewalls er netværksenheder eller software, der bruges til at kontrollere netværkssikkerhed og adgangsregler. Firewalls bruges til at adskille sikre interne netværk fra potentielt usikre eksterne netværk som internettet. Typisk er firewalls sat op til at afvise adgangsanmodninger fra ukendte kilder, mens de tillader aktiviteter fra kendte. Firewalls betydning for netværkssikkerhed vokser i takt med stigningen i cybertrusler.

Protokoller til kommunikation

Protokoller, som de relaterer til internettets lagstruktur
TCP/IP-modellen og dens relationer til populære protokoller, der bruges på forskellige niveauer.
Når en router er til stede, sænker meddelelsesstrømmene gennem protokollag, over til routeren, op i routerens stak, ned igen og videre til den endelige destination, hvor den klatrer tilbage op i routerens stak.
I nærvær af en router flyder meddelelsen mellem to enheder (AB) på de fire niveauer af TCP/IP-paradigmet (R). De røde strømme repræsenterer effektive kommunikationsveje, hvorimod de sorte stier repræsenterer faktiske netværksforbindelser.
En kommunikationsprotokol er et sæt instruktioner til at sende og modtage data via et netværk. Protokoller til kommunikation har en række egenskaber. De kan enten være forbindelsesorienterede eller forbindelsesløse, bruge kredsløbstilstand eller pakkekobling og bruge hierarkisk eller flad adressering.

Kommunikationsoperationer er opdelt i protokollag i en protokolstak, som ofte er bygget efter OSI-modellen, hvor hvert lag udnytter tjenesterne fra det underliggende, indtil det laveste lag styrer hardwaren, der transporterer information på tværs af medierne. Protokollag bruges flittigt i computernetværksverdenen. HTTP (World Wide Web-protokol), der kører over TCP over IP (internetprotokoller) over IEEE 802.11 er et godt eksempel på en protokolstak (Wi-Fi-protokollen). Når en hjemmebruger surfer på nettet, bruges denne stak mellem den trådløse router og brugerens personlige computer.

Et par af de mest almindelige kommunikationsprotokoller er listet her.

Protokoller, der er meget udbredte

Suite af internetprotokoller
Al nuværende netværk er bygget på Internet Protocol Suite, ofte kendt som TCP/IP. Det leverer både forbindelsesløse og forbindelsesorienterede tjenester over et iboende ustabilt netværk, der krydses ved hjælp af internetprotokoldatagramoverførsel (IP). Protokolpakken definerer adresserings-, identifikations- og routingstandarderne for Internet Protocol Version 4 (IPv4) og IPv6, den næste iteration af protokollen med meget udvidede adresseringsmuligheder. Internet Protocol Suite er et sæt protokoller, der definerer, hvordan internettet fungerer.

IEEE 802 er et akronym for "International Electrotechnical
IEEE 802 refererer til en gruppe af IEEE-standarder, der omhandler lokal- og storbynetværk. IEEE 802-protokolpakken tilbyder som helhed en bred vifte af netværksmuligheder. En flad adresseringsmetode anvendes i protokollerne. De arbejder for det meste på OSI-modellens lag 1 og 2.

MAC-brodannelse (IEEE 802.1D) bruger for eksempel Spanning Tree Protocol til at dirigere Ethernet-trafik. VLAN'er er defineret af IEEE 802.1Q, mens IEEE 802.1X definerer en port-baseret netværksadgangskontrolprotokol, som er grundlaget for de godkendelsesprocesser, der bruges i VLAN'er (men også i WLAN'er) — dette er, hvad hjemmebrugeren ser, når han indtaster en "trådløs adgangsnøgle."

Ethernet er en gruppe af teknologier, der bruges i kablede LAN'er. IEEE 802.3 er en samling af standarder produceret af Institute of Electrical and Electronics Engineers, der beskriver det.

LAN (trådløs)
Trådløst LAN, ofte kendt som WLAN eller WiFi, er det mest kendte medlem af IEEE 802-protokolfamilien for hjemmebrugere i dag. Den er baseret på IEEE 802.11-specifikationerne. IEEE 802.11 har meget til fælles med kablet Ethernet.

Sonet/SDH
Synchronous optical networking (SONET) og Synchronous Digital Hierarchy (SDH) er multiplekseringsteknikker, der bruger lasere til at transmittere flere digitale bitstrømme på tværs af optisk fiber. De blev skabt til at transmittere kredsløbskommunikation fra mange kilder, primært for at understøtte kredsløbskoblet digital telefoni. SONET/SDH var på den anden side en ideel kandidat til at formidle Asynchronous Transfer Mode (ATM) rammer på grund af dens protokolneutralitet og transportorienterede funktioner.

Tilstand til asynkron overførsel
Asynchronous Transfer Mode (ATM) er en teknologi til omstilling af telekommunikationsnetværk. Den koder data til små celler med fast størrelse ved hjælp af asynkron tidsmultipleksing. Dette er i modsætning til andre protokoller, der bruger pakker eller rammer med variabel størrelse, såsom Internet Protocol Suite eller Ethernet. Både kredsløbs- og pakkekoblede netværk ligner ATM. Dette gør det velegnet til et netværk, der skal administrere både data med høj kapacitet og indhold i realtid med lav latens som tale og video. ATM har en forbindelsesorienteret tilgang, hvor et virtuelt kredsløb mellem to endepunkter skal etableres, før selve datatransmissionen kan begynde.

Mens pengeautomater mister fordel til fordel for næste generations netværk, fortsætter de med at spille en rolle i den sidste mile, eller forbindelsen mellem en internetudbyder og en privat bruger.

Cellulære benchmarks
Det globale system for mobilkommunikation (GSM), General Packet Radio Service (GPRS), cdmaOne, CDMA2000, Evolution-Data Optimized (EV-DO), Enhanced Data Rates for GSM Evolution (EDGE), Universal Mobile Telecommunications System (UMTS), Digital Enhanced Cordless Telecommunications (DECT), Digital AMPS (IS-136/TDMA) og Integrated Digital Enhanced Network (IDEN) er nogle af de forskellige digitale cellulære standarder (iDEN).

Routing

Routing bestemmer de bedste veje for information til at rejse via et netværk. For eksempel er de bedste ruter fra node 1 til node 6 sandsynligvis 1-8-7-6 eller 1-8-10-6, da disse har de tykkeste stier.
Routing er processen med at identificere netværksstier til transmission af data. Mange typer netværk, herunder kredsløbskoblingsnetværk og pakkekoblede netværk, kræver routing.

Routingprotokoller dirigerer pakkevideresendelse (overførslen af ​​logisk adresserede netværkspakker fra deres kilde til deres endelige destination) på tværs af mellemliggende noder i pakkekoblede netværk. Routere, broer, gateways, firewalls og switches er almindelige netværkshardwarekomponenter, der fungerer som mellemliggende noder. Computere til generelle formål kan også videresende pakker og udføre routing, selvom deres ydeevne kan blive forhindret på grund af deres mangel på specialhardware. Routingtabeller, som holder styr på stierne til flere netværksdestinationer, bruges ofte til at dirigere videresendelse i routingprocessen. Som følge heraf er opbygning af routingtabeller i routerens hukommelse afgørende for effektiv routing.

Der er generelt flere ruter at vælge imellem, og forskellige faktorer kan tages i betragtning, når det besluttes, hvilke ruter der skal tilføjes til rutetabellen, såsom (ordnet efter prioritet):

Længere undernetmasker er ønskelige i dette tilfælde (uafhængigt om det er inden for en routingprotokol eller over en anden routingprotokol)
Når en billigere metrik/omkostning foretrækkes, omtales dette som en metrik (kun gyldig inden for en og samme routingprotokol)
Når det kommer til administrativ afstand, ønskes en kortere afstand (gælder kun mellem forskellige routingprotokoller)
Langt de fleste routingalgoritmer anvender kun én netværkssti ad gangen. Flere alternative stier kan bruges med flervejs routingalgoritmer.

I sin forestilling om, at netværksadresser er strukturerede, og at sammenlignelige adresser betyder nærhed i hele netværket, bliver routing i en mere restriktiv forstand nogle gange kontrasteret med brobygning. Et enkelt routingtabelelement kan angive ruten til en samling af enheder ved hjælp af strukturerede adresser. Struktureret adressering (routing i begrænset forstand) overgår ustruktureret adressering i store netværk (bridging). På internettet er routing blevet den mest anvendte metode til adressering. I isolerede situationer er brobygning stadig almindeligt anvendt.

De organisationer, der ejer netværkene, er normalt ansvarlige for at administrere dem. Intranet og ekstranet kan bruges i private firmanetværk. De kan også give netværksadgang til internettet, som er et globalt netværk uden en enkelt ejer og i det væsentlige ubegrænset forbindelse.

Intranet
Et intranet er en samling af netværk, der administreres af et enkelt administrativt organ. IP-protokollen og IP-baserede værktøjer såsom webbrowsere og filoverførselsapps bruges på intranettet. Intranettet kan kun tilgås af autoriserede personer, ifølge den administrative enhed. Et intranet er mest typisk en organisations interne LAN. Mindst én webserver er normalt til stede på et stort intranet for at give brugerne organisatoriske oplysninger. Et intranet er alt på et lokalt netværk, der er bag routeren.

Extranet
Et ekstranet er et netværk, der ligeledes administreres af en enkelt organisation, men som kun giver mulighed for en begrænset adgang til et bestemt eksternt netværk. For eksempel kan en virksomhed give adgang til bestemte dele af sit intranet til sine forretningspartnere eller kunder for at dele data. Ud fra en sikkerhedsmæssig forstand er disse andre enheder ikke nødvendigvis til at stole på. WAN-teknologi bruges ofte til at oprette forbindelse til et ekstranet, men det bruges ikke altid.

Internet
Et internetværk er sammenføjningen af ​​flere forskellige typer computernetværk til et enkelt netværk ved at lægge netværkssoftware oven på hinanden og forbinde dem via routere. Internettet er det mest kendte eksempel på et netværk. Det er et sammenkoblet globalt system af statslige, akademiske, erhvervsmæssige, offentlige og private computernetværk. Den er baseret på Internet Protocol Suite's netværksteknologier. Det er efterfølgeren til DARPAs Advanced Research Projects Agency Network (ARPANET), som blev bygget af det amerikanske forsvarsministeriums DARPA. World Wide Web (WWW), Internet of Things (IoT), videotransport og en bred vifte af informationstjenester er alle muliggjort af internettets kobberkommunikations- og optiske netværksrygrad.

Deltagere på internettet anvender en bred vifte af protokoller, der er kompatible med Internet Protocol Suite og et adresseringssystem (IP-adresser), der vedligeholdes af Internet Assigned Numbers Authority og adresseregistre. Gennem Border Gateway Protocol (BGP) deler tjenesteudbydere og større virksomheder information om tilgængeligheden af ​​deres adresserum og opbygger et redundant globalt netværk af transmissionsveje.

Darknet
Et darknet er et internetbaseret overlejringsnetværk, som kun kan tilgås ved at bruge specialsoftware. Et darknet er et anonymiserende netværk, der bruger ikke-standardiserede protokoller og porte til kun at forbinde pålidelige peers - almindeligvis omtalt som "venner" (F2F).

Darknets adskiller sig fra andre distribuerede peer-to-peer-netværk ved, at brugere kan interagere uden frygt for statslig eller virksomhedsinterferens, fordi deling er anonym (dvs. IP-adresser offentliggøres ikke offentligt).

Tjenester til netværket

Netværkstjenester er applikationer, der hostes af servere på et computernetværk for at give funktionalitet til netværksmedlemmer eller -brugere eller for at hjælpe netværket med dets drift.

Velkendte netværkstjenester omfatter World Wide Web, e-mail, udskrivning og netværksfildeling. DNS (Domain Name System) giver navne til IP- og MAC-adresser (navne som "nm.lan" er nemmere at huske end numre som "210.121.67.18"), og DHCP sikrer, at alt netværksudstyr har en gyldig IP-adresse.

Formatet og rækkefølgen af ​​meddelelser mellem klienter og servere for en netværkstjeneste er typisk defineret af en tjenesteprotokol.

Netværkets ydeevne

Forbrugt båndbredde, relateret til opnået gennemløb eller goodput, dvs. den gennemsnitlige hastighed for vellykket dataoverførsel via en kommunikationsforbindelse, måles i bits pr. sekund. Teknologi såsom båndbreddeformning, båndbreddestyring, båndbredderegulering, båndbreddeloft, båndbreddeallokering (f.eks. båndbreddeallokeringsprotokol og dynamisk båndbreddeallokering) og andre påvirker gennemløbet. Den gennemsnitlige forbrugte signalbåndbredde i hertz (den gennemsnitlige spektrale båndbredde af det analoge signal, der repræsenterer bitstrømmen) i løbet af den undersøgte tidsramme bestemmer båndbredden af ​​en bitstrøm.

Et telekommunikationsnetværks design og ydeevnekarakteristika er netværksforsinkelse. Den definerer den tid, det tager for et stykke data at overføre gennem et netværk fra et kommunikationsendepunkt til det næste. Det måles normalt i tiendedele af et sekund eller brøkdele af et sekund. Afhængigt af placeringen af ​​det præcise par af kommunikationsendepunkter kan forsinkelsen variere en smule. Ingeniører rapporterer typisk både den maksimale og gennemsnitlige forsinkelse, såvel som forsinkelsens forskellige komponenter:

Den tid det tager for en router at behandle pakkeheaderen.
Køtid – hvor lang tid en pakke bruger i routingkøerne.
Den tid, det tager at skubbe pakkens bits ind på linket, kaldes transmissionsforsinkelse.
Udbredelsesforsinkelse er den tid, det tager for et signal at rejse gennem mediet.
Signaler støder på en minimal mængde forsinkelse på grund af den tid, det tager at sende en pakke serielt via et link. På grund af overbelastning af netværket forlænges denne forsinkelse med mere uforudsigelige niveauer af forsinkelse. Den tid, det tager for et IP-netværk at reagere, kan variere fra et par millisekunder til flere hundrede millisekunder.

Servicekvalitet

Netværkets ydeevne måles normalt ved kvaliteten af ​​servicen for et telekommunikationsprodukt, afhængigt af installationskravene. Gennemløb, jitter, bitfejlrate og forsinkelse er alle faktorer, der kan påvirke dette.

Eksempler på netværksydelsesmålinger for et kredsløbskoblet netværk og en slags pakkekoblet netværk, nemlig ATM, er vist nedenfor.

Kredsløbskoblede netværk: Servicegraden er identisk med netværkets ydeevne i kredsløbskoblede netværk. Antallet af opkald, der afvises, er en metrik, der angiver, hvor godt netværket klarer sig under høj trafikbelastning. Støj- og ekkoniveauer er eksempler på andre former for præstationsindikatorer.
Linjehastighed, servicekvalitet (QoS), datagennemløb, forbindelsestid, stabilitet, teknologi, moduleringsteknik og modemopgraderinger kan alle bruges til at evaluere ydeevnen af ​​et Asynchronous Transfer Mode (ATM) netværk.

Fordi hvert netværk er unikt i sin natur og arkitektur, er der adskillige tilgange til at vurdere dets ydeevne. I stedet for at blive målt, kan præstationer i stedet modelleres. Tilstandsovergangsdiagrammer bruges for eksempel ofte til at modellere køydeevne i kredsløbskoblede netværk. Disse diagrammer bruges af netværksplanlæggeren til at undersøge, hvordan netværket fungerer i hver stat, for at sikre, at netværket er planlagt korrekt.

Overbelastning på nettet

Når et link eller en knude udsættes for en højere databelastning, end den er bedømt til, opstår der overbelastning af netværket, og kvaliteten af ​​tjenesten lider. Pakker skal slettes, når netværk bliver overbelastet, og køerne bliver for fulde, hvorfor netværk er afhængige af re-transmission. Køforsinkelser, pakketab og blokering af nye forbindelser er alle almindelige resultater af overbelastning. Som et resultat af disse to resulterer trinvise stigninger i tilbudt belastning i enten en lille forbedring i netværksgennemstrømning eller et fald i netværksgennemstrømning.

Selv når den indledende belastning sænkes til et niveau, der typisk ikke vil forårsage netværksoverbelastning, har netværksprotokoller, der bruger aggressive retransmissioner til at korrigere for pakketab, en tendens til at holde systemerne i en tilstand af netværksoverbelastning. Som et resultat, med den samme mængde efterspørgsel, kan netværk, der bruger disse protokoller, udvise to stabile tilstande. Kongestiv kollaps refererer til en stabil situation med lav gennemstrømning.

For at minimere sammenbrud af overbelastning anvender moderne netværk overbelastningsstyring, undgåelse af overbelastning og trafikstyringsstrategier (dvs. endepunkter bremser typisk eller nogle gange endda stopper transmissionen helt, når netværket er overbelastet). Eksponentiel backoff i protokoller som 802.11's CSMA/CA og det originale Ethernet, vinduesreduktion i TCP og rimelig kø i routere er eksempler på disse strategier. Implementering af prioritetsordninger, hvor nogle pakker transmitteres med højere prioritet end andre, er en anden måde at undgå de skadelige virkninger af netværksoverbelastning. Prioriterede ordninger afhjælper ikke overbelastning af nettet alene, men de hjælper med at afbøde konsekvenserne af overbelastning for nogle tjenester. 802.1p er et eksempel på dette. Den bevidste allokering af netværksressourcer til specificerede strømme er en tredje strategi til at undgå overbelastning af netværket. ITU-T G.hn-standarden bruger f.eks. CFTXOP'er (Contention-Free Transmission Opportunities) til at levere højhastigheds (op til 1 Gbit/s) lokalnetværk over eksisterende husledninger (strømledninger, telefonlinjer og koaksialkabler) ).

RFC 2914 til internettet går meget ud på, hvad angår overbelastningskontrol.

Netværkets modstandsdygtighed

"Evnen til at tilbyde og opretholde et passende serviceniveau i lyset af defekter og hindringer for normal drift," ifølge definitionen af ​​netværksresiliens.

Netværkssikkerhed

Hackere bruger computernetværk til at sprede computervirus og orme til netværksenheder eller til at forbyde disse enheder at få adgang til netværket via et denial-of-service-angreb.

Netværksadministratorens bestemmelser og regler for at forhindre og overvåge ulovlig adgang, misbrug, ændring eller nægtelse af computernetværket og dets netværkstilgængelige ressourcer er kendt som netværkssikkerhed. Netværksadministratoren kontrollerer netværkssikkerheden, som er autorisation af adgang til data i et netværk. Brugere får et brugernavn og en adgangskode, der giver dem adgang til information og programmer under deres kontrol. Netværkssikkerhed bruges til at sikre daglige transaktioner og kommunikation mellem organisationer, offentlige myndigheder og enkeltpersoner på en række offentlige og private computernetværk.

Overvågningen af ​​data, der udveksles via computernetværk såsom internettet, er kendt som netværksovervågning. Overvågning udføres ofte i hemmelighed, og det kan udføres af eller på vegne af regeringer, virksomheder, kriminelle grupper eller personer. Det kan være lovligt eller ikke, og det kan være nødvendigt at godkende en domstol eller anden uafhængig agentur.

Overvågningssoftware til computere og netværk er meget udbredt i dag, og næsten al internettrafik er eller kunne overvåges for tegn på ulovlig aktivitet.

Regeringer og retshåndhævende myndigheder bruger overvågning til at opretholde social kontrol, identificere og overvåge risici og forhindre/efterforske kriminelle aktiviteter. Regeringer har nu hidtil uset magt til at overvåge borgernes aktiviteter takket være programmer som Total Information Awareness-programmet, teknologier som højhastighedsovervågningscomputere og biometrisoftware og love som Communications Assistance For Law Enforcement Act.

Mange borgerrettigheds- og privatlivsorganisationer, herunder Reporters Without Borders, Electronic Frontier Foundation og American Civil Liberties Union, har udtrykt bekymring for, at øget borgerovervågning kan føre til et masseovervågningssamfund med færre politiske og personlige friheder. Frygt som denne har givet anledning til en række retssager, herunder Hepting v. AT&T. I protest mod det, den kalder "drakonisk overvågning", har hacktivistgruppen Anonymous hacket sig ind på officielle hjemmesider.

End-to-end-kryptering (E2EE) er et digitalt kommunikationsparadigme, der sikrer, at data, der går mellem to kommunikerende parter, til enhver tid er beskyttet. Det indebærer, at den oprindelige part krypterer data, så de kun kan dekrypteres af den påtænkte modtager, uden at være afhængig af tredjeparter. End-to-end-kryptering beskytter kommunikation mod at blive opdaget eller manipuleret af mellemmænd, såsom internetudbydere eller applikationstjenesteudbydere. Generelt sikrer end-to-end-kryptering både hemmeligholdelse og integritet.

HTTPS til onlinetrafik, PGP til e-mail, OTR til instant messaging, ZRTP til telefoni og TETRA til radio er alle eksempler på end-to-end-kryptering.

End-to-end-kryptering er ikke inkluderet i de fleste serverbaserede kommunikationsløsninger. Disse løsninger kan kun sikre kommunikationssikkerheden mellem klienter og servere, ikke mellem kommunikerende parter. Google Talk, Yahoo Messenger, Facebook og Dropbox er eksempler på ikke-E2EE-systemer. Nogle af disse systemer, såsom LavaBit og SecretInk, har endda hævdet at give "ende-til-ende"-kryptering, når de ikke gør det. Nogle systemer, der formodes at levere end-to-end-kryptering, såsom Skype eller Hushmail, har vist sig at have en bagdør, der forhindrer kommunikationsparterne i at forhandle krypteringsnøglen.

End-to-end krypteringsparadigmet adresserer ikke direkte bekymringer ved kommunikationens slutpunkter, såsom klientteknologisk udnyttelse, lavkvalitets tilfældige talgeneratorer eller nøgledeponering. E2EE ignorerer også trafikanalyse, som involverer bestemmelse af endepunkters identiteter samt timings og mængder af meddelelser, der sendes.

Da e-handel først dukkede op på World Wide Web i midten af ​​1990'erne, var det klart, at en eller anden form for identifikation og kryptering var påkrævet. Netscape var den første til at forsøge at skabe en ny standard. Netscape Navigator var den mest populære webbrowser på det tidspunkt. Secure Socket Layer (SSL) blev skabt af Netscape (SSL). SSL kræver brug af en certificeret server. Serveren sender en kopi af certifikatet til klienten, når en klient anmoder om adgang til en SSL-sikret server. SSL-klienten verificerer dette certifikat (alle webbrowsere leveres forudindlæst med en omfattende liste over CA-rodcertifikater), og hvis den bestå, godkendes serveren, og klienten forhandler en symmetrisk nøgle-ciffer for sessionen. Mellem SSL-serveren og SSL-klienten er sessionen nu i en meget sikker krypteret tunnel.

For at gøre dig nærmere bekendt med certificeringspensum kan du udvide og analysere nedenstående tabel.

EITC/IS/CNF Computer Networking Fundamentals Certification Curriculum refererer til didaktisk materiale med åben adgang i en videoform. Læreprocessen er opdelt i en trin-for-trin struktur (programmer -> lektioner -> emner), der dækker relevante læseplansdele. Der tilbydes også ubegrænset rådgivning med domæneeksperter.
Tjek for detaljer om certificeringsproceduren Sådan fungerer det.

Læs mere
Ingen kommentarer

EITC/IS/WAPT webapplikations penetrationstest

Mandag, 18 oktober 2021 by admin

EITC/IS/WAPT Web Applications Penetration Testing er det europæiske IT-certificeringsprogram om teoretiske og praktiske aspekter af webapplikationspenetrationstest (white hacking), herunder forskellige teknikker til webstedsspidering, scanning og angrebsteknikker, herunder specialiserede penetrationstestværktøjer og suiter .

Læreplanen for EITC/IS/WAPT Web Applications Penetration Testing dækker introduktion til Burp Suite, web spidering og DVWA, brute force testing med Burp Suite, web application firewall (WAF) detektion med WAFW00F, target scope og spidering, opdagelse af skjulte filer med ZAP, WordPress sårbarhedsscanning og opregning af brugernavne, load balancer-scanning, cross-site scripting, XSS – reflekteret, lagret og DOM, proxyangreb, konfiguration af proxyen i ZAP, filer og mappeangreb, fil- og biblioteksopdagelse med DirBuster, praksis for webangreb , OWASP Juice Shop, CSRF – Cross Site Request Forgery, cookie-indsamling og reverse engineering, HTTP-attributter – cookie-tyveri, SQL-injektion, DotDotPwn – directory traversal fuzzing, iframe-injection og HTML-injection, Heartbleed exploit – opdagelse og udnyttelse, PHP-kodeinjektion, bWAPP – HTML-injektion, reflekteret POST, OS-kommandeinjektion med Commix, server-side inkluderer SSI-injektion, pentesting i Docker, OverTheWire Natas, LFI og kommandoinjektion, Google-hacking til penetrering, Google Dorks til penetrationstest, Apache2 ModSecurity samt Nginx ModSecurity inden for følgende struktur, der omfatter omfattende videodidaktisk indhold som reference for denne EITC-certificering.

Webapplikationssikkerhed (ofte omtalt som Web AppSec) er konceptet med at designe websteder til at fungere normalt, selv når de bliver angrebet. Begrebet er at integrere et sæt sikkerhedsforanstaltninger i en webapplikation for at beskytte dens aktiver mod fjendtlige agenter. Webapplikationer, som al software, er tilbøjelige til fejl. Nogle af disse fejl er faktiske sårbarheder, der kan udnyttes, hvilket udgør en risiko for virksomheder. Sådanne fejl beskyttes mod via webapplikationssikkerhed. Det indebærer anvendelse af sikre udviklingstilgange og indførelse af sikkerhedskontroller gennem hele softwareudviklingens livscyklus (SDLC), der sikrer, at designfejl og implementeringsproblemer løses. Online penetrationstest, som udføres af eksperter, der har til formål at afdække og udnytte webapplikationssårbarheder ved hjælp af en såkaldt white hacking-tilgang, er en væsentlig praksis for at muliggøre passende forsvar.

En webpenetrationstest, også kendt som en webpentest, simulerer et cyberangreb på en webapplikation for at finde udbyttelige fejl. Penetrationstest bruges ofte til at supplere en webapplikationsfirewall i forbindelse med webapplikationssikkerhed (WAF). Pentesting indebærer generelt forsøg på at trænge ind i et hvilket som helst antal applikationssystemer (f.eks. API'er, frontend/backend-servere) for at finde sårbarheder, såsom usanitiseret input, der er sårbart over for kodeinjektionsangreb.

Resultaterne af online penetrationstesten kan bruges til at konfigurere WAF-sikkerhedspolitikker og adressere opdagede sårbarheder.

Penetrationstest har fem trin.

Pen-testproceduren er opdelt i fem trin.

  1. Planlægning og spejderarbejde
    At definere omfanget og målene for en test, herunder de systemer, der skal behandles, og de testmetoder, der skal anvendes, er den første fase.
    For at få en bedre forståelse af, hvordan et mål fungerer og dets potentielle svagheder, skal du indsamle efterretninger (f.eks. netværks- og domænenavne, mailserver).
  2. Scanning
    Næste trin er at finde ud af, hvordan målapplikationen vil reagere på forskellige typer indtrængningsforsøg. Dette opnås normalt ved at anvende følgende metoder:
    Statisk analyse – Undersøgelse af en applikations kode for at forudsige, hvordan den vil opføre sig, når den køres. I et enkelt gennemløb kan disse værktøjer scanne hele koden.
    Dynamisk analyse er processen med at inspicere en applikations kode, mens den kører. Denne metode til scanning er mere praktisk, fordi den giver et realtidsbillede af en applikations ydeevne.
  3. At få adgang
    For at finde et måls svagheder bruger dette trin webapplikationsangreb såsom cross-site scripting, SQL-injektion og bagdøre. For at forstå den skade, som disse sårbarheder kan påføre, forsøger testere at udnytte dem ved at eskalere privilegier, stjæle data, opsnappe trafik og så videre.
  4. Holder adgangen
    Formålet med denne fase er at vurdere, om sårbarheden kan udnyttes til at etablere en langsigtet tilstedeværelse i det kompromitterede system, hvilket giver en dårlig aktør mulighed for at få dybdegående adgang. Målet er at efterligne avancerede vedvarende trusler, som kan forblive i et system i flere måneder for at stjæle en virksomheds mest følsomme oplysninger.
  5. Analyse
    Penetrationstestresultaterne sættes derefter i en rapport, der indeholder oplysninger som:
    Sårbarheder, der blev udnyttet i detaljer
    Data, der blev indhentet, var følsomme
    Mængden af ​​tid, pennetesteren var i stand til at forblive ubemærket i systemet.
    Sikkerhedseksperter bruger disse data til at hjælpe med at konfigurere en virksomheds WAF-indstillinger og andre applikationssikkerhedsløsninger for at reparere sårbarheder og forhindre yderligere angreb.

Metoder til gennemtrængningstestning

  • Ekstern penetrationstest fokuserer på en virksomheds aktiver, der er synlige på internettet, såsom selve webapplikationen, virksomhedens hjemmeside samt e-mail- og domænenavneservere (DNS). Målet er at få adgang til og udtrække nyttig information.
  • Intern test indebærer, at en tester har adgang til en applikation bag en virksomheds firewall, der simulerer et fjendtligt insiderangreb. Dette er ikke nødvendigt en slyngel medarbejdersimulering. En medarbejder, hvis legitimationsoplysninger er opnået som følge af et phishingforsøg, er et almindeligt udgangspunkt.
  • Blindtest er, når en tester blot får navnet på den virksomhed, der testes. Dette giver sikkerhedseksperter mulighed for at se, hvordan et faktisk applikationsangreb kan udspille sig i realtid.
  • Dobbelt-blind test: I en dobbelt-blind test er sikkerhedsprofessionelle ikke klar over det simulerede angreb på forhånd. De vil ikke nå at støtte deres befæstninger før et forsøg på brud, ligesom i den virkelige verden.
  • Målrettet test – i dette scenarie samarbejder testeren og sikkerhedspersonalet og holder styr på hinandens bevægelser. Dette er en fremragende træningsøvelse, der giver et sikkerhedsteam feedback i realtid fra en hackers perspektiv.

Webapplikations firewalls og penetrationstest

Penetrationstest og WAF'er er to separate, men komplementære sikkerhedsteknikker. Testeren vil sandsynligvis udnytte WAF-data, såsom logfiler, til at finde og udnytte en applikations svage områder i mange typer pentests (med undtagelse af blind- og dobbeltblindetests).

Til gengæld kan pentestdata hjælpe WAF-administratorer. Efter afslutningen af ​​en test kan WAF-konfigurationer ændres for at beskytte mod de fejl, der er opdaget under testen.

Endelig opfylder pentest visse af sikkerhedsrevisionsmetodernes overholdelseskrav, såsom PCI DSS og SOC 2. Visse krav, såsom PCI-DSS 6.6, kan kun opfyldes, hvis der anvendes en certificeret WAF. Men på grund af de førnævnte fordele og potentiale til at ændre WAF-indstillinger, gør dette ikke pennetest mindre nyttigt.

Hvad er betydningen af ​​test af websikkerhed?

Målet med websikkerhedstest er at identificere sikkerhedsfejl i webapplikationer og deres opsætning. Applikationslaget er det primære mål (dvs. hvad der kører på HTTP-protokollen). At sende forskellige former for input til en webapplikation for at fremkalde problemer og få systemet til at reagere på uventede måder er en almindelig tilgang til at teste dets sikkerhed. Disse "negative tests" ser for at se, om systemet gør noget, det ikke var beregnet til at opnå.

Det er også vigtigt at indse, at websikkerhedstest indebærer mere end blot at verificere applikationens sikkerhedsfunktioner (såsom godkendelse og autorisation). Det er også afgørende at sikre, at andre funktioner implementeres sikkert (f.eks. forretningslogik og brug af korrekt inputvalidering og outputkodning). Formålet er at sikre, at webapplikationens funktioner er sikre.

Hvad er de mange typer sikkerhedsvurderinger?

  • Test for Dynamic Application Security (DAST). Denne automatiserede applikationssikkerhedstest er bedst egnet til lavrisiko, internt-vendte apps, der skal opfylde lovmæssige sikkerhedskrav. At kombinere DAST med nogle manuelle online sikkerhedstests for almindelige sårbarheder er den bedste strategi for apps med mellemrisiko og vigtige applikationer, der gennemgår mindre ændringer.
  • Sikkerhedstjek for statiske applikationer (SAST). Denne applikationssikkerhedsstrategi omfatter både automatiserede og manuelle testmetoder. Den er ideel til at opdage fejl uden at skulle køre apps i et live miljø. Det giver også ingeniører mulighed for at scanne kildekoden for at opdage og rette softwaresikkerhedsfejl på en systematisk måde.
  • Penetrationsundersøgelse. Denne manuelle applikationssikkerhedstest er ideel til vigtige applikationer, især dem, der gennemgår væsentlige ændringer. For at finde avancerede angrebsscenarier bruger evalueringen forretningslogik og modstandsbaseret test.
  • Application Self-Protection in the Runtime (RASP). Denne voksende applikationssikkerhedsmetode inkorporerer en række teknologiske teknikker til at instrumentere en applikation, så trusler kan overvåges og forhåbentlig forhindres i realtid, når de opstår.

Hvilken rolle spiller applikationssikkerhedstest for at sænke virksomhedens risiko?

Langt de fleste angreb på webapplikationer omfatter:

  • SQL Injection
  • XSS (Cross Site Scripting)
  • Fjernkommandoudførelse
  • Path Traversal Angreb
  • Begrænset indholdsadgang
  • Kompromitterede brugerkonti
  • Installation af skadelig kode
  • Tabt salgsindtægt
  • Kundernes tillid eroderer
  • Skader brandets omdømme
  • Og en masse andre angreb

I dagens internetmiljø kan en webapplikation blive skadet af en række forskellige udfordringer. Grafikken ovenfor viser et par af de mest almindelige angreb begået af angribere, som hver især kan forårsage betydelig skade på en individuel applikation eller en hel virksomhed. At kende de mange angreb, der gør en applikation sårbar, samt de mulige resultater af et angreb, giver virksomheden mulighed for at løse sårbarheder på forhånd og effektivt teste for dem.

Afhjælpende kontroller kan etableres i de tidlige faser af SDLC for at forhindre problemer ved at identificere årsagen til sårbarheden. Under en webapplikationssikkerhedstest kan viden om, hvordan disse trusler virker, også bruges til at målrette mod kendte steder af interesse.

At erkende virkningen af ​​et angreb er også vigtigt for at styre virksomhedens risiko, da virkningerne af et vellykket angreb kan bruges til at bestemme alvoren af ​​sårbarheden generelt. Hvis sårbarheder opdages under en sikkerhedstest, giver en bestemmelse af deres alvor mulighed for, at virksomheden kan prioritere afhjælpende indsats mere effektivt. For at reducere risikoen for virksomheden skal du starte med kritiske alvorlighedsproblemer og arbejde dig ned til dem, der har mindre effekt.

Før du identificerer et problem, vil vurdering af den mulige effekt af hvert program i virksomhedens applikationsbibliotek hjælpe dig med at prioritere applikationssikkerhedstest. Wenb-sikkerhedstest kan planlægges til først at målrette virksomhedens kritiske applikationer, med mere målrettede tests for at mindske risikoen mod virksomheden. Med en etableret liste over højprofilerede applikationer kan wenb-sikkerhedstest planlægges til først at målrette virksomhedens kritiske applikationer, med mere målrettet test for at sænke risikoen mod virksomheden.

Hvilke funktioner skal undersøges under en webapplikationssikkerhedstest?

Under webapplikationssikkerhedstest skal du overveje følgende ikke-udtømmende liste over funktioner. En ineffektiv implementering af hver enkelt kan resultere i svagheder, hvilket bringer virksomheden i fare.

  • Konfiguration af applikation og server. Kryptering/kryptografiske opsætninger, webserverkonfigurationer og så videre er alle eksempler på potentielle fejl.
  • Validering af input- og fejlhåndtering Dårlig input- og outputbehandling fører til SQL-injektion, cross-site scripting (XSS) og andre typiske injektionsproblemer.
  • Autentificering og vedligeholdelse af sessioner. Sårbarheder, der kan føre til brugerefterligning. Credential styrke og beskyttelse bør også tages i betragtning.
  • Bemyndigelse. Applikationens kapacitet til at beskytte mod vertikale og horisontale privilegieeskalationer er ved at blive testet.
  • Logik i erhvervslivet. De fleste programmer, der leverer forretningsfunktionalitet, er afhængige af disse.
  • Logik i klientens ende. Denne type funktion er ved at blive mere almindelig med moderne, JavaScript-tunge websider, såvel som websider, der bruger andre typer klientsideteknologier (f.eks. Silverlight, Flash, Java-applets).

For at gøre dig nærmere bekendt med certificeringspensum kan du udvide og analysere nedenstående tabel.

EITC/IS/WAPT Web Applications Penetration Testing Certification Curriculum refererer til didaktisk materiale med åben adgang i en videoform. Læreprocessen er opdelt i en trin-for-trin struktur (programmer -> lektioner -> emner), der dækker relevante læseplansdele. Der tilbydes også ubegrænset rådgivning med domæneeksperter.
Tjek for detaljer om certificeringsproceduren Sådan fungerer det.

Læs mere
Ingen kommentarer

EITC/IS/WASF Web Applications Security Fundamentals

Mandag, 18 oktober 2021 by admin

EITC/IS/WASF Web Applications Security Fundamentals er det europæiske IT-certificeringsprogram om teoretiske og praktiske aspekter af World Wide Web-tjenesters sikkerhed lige fra sikkerheden af ​​grundlæggende webprotokoller, gennem privatlivets fred, trusler og angreb på forskellige lag af webtrafik, netværkskommunikation, web serversikkerhed, sikkerhed i højere lag, herunder webbrowsere og webapplikationer, samt autentificering, certifikater og phising.

Læseplanen for EITC/IS/WASF Web Applications Security Fundamentals dækker introduktion til HTML- og JavaScript-websikkerhedsaspekter, DNS, HTTP, cookies, sessioner, cookie- og sessionangreb, Samme Origin Policy, Cross-Site Request Forgery, undtagelser fra det samme Oprindelsespolitik, Cross-Site Scripting (XSS), Cross-Site Scripting-forsvar, webfingeraftryk, privatliv på nettet, DoS, phishing og sidekanaler, Denial-of-Service, phishing og sidekanaler, injektionsangreb, kodeinjektion, transport lagsikkerhed (TLS) og angreb, HTTPS i den virkelige verden, autentificering, WebAuthn, styring af websikkerhed, sikkerhedsproblemer i Node.js-projektet, serversikkerhed, sikker kodningspraksis, lokal HTTP-serversikkerhed, DNS-genbindingsangreb, browserangreb, browser arkitektur, samt skrivning af sikker browserkode, inden for følgende struktur, der omfatter omfattende videodidaktisk indhold som reference for denne EITC-certificering.

Webapplikationssikkerhed er en delmængde af informationssikkerhed, der fokuserer på websteds-, webapplikations- og webservicesikkerhed. Webapplikationssikkerhed er på sit mest basale niveau baseret på applikationssikkerhedsprincipper, men den anvender dem især på internettet og webplatforme. Webapplikationssikkerhedsteknologier, såsom webapplikationsfirewalls, er specialiserede værktøjer til at arbejde med HTTP-trafik.

Open Web Application Security Project (OWASP) tilbyder ressourcer, der er både gratis og åbne. En non-profit OWASP Foundation er ansvarlig for det. 2017 OWASP Top 10 er resultatet af den aktuelle undersøgelse baseret på omfattende data indsamlet fra over 40 partnerorganisationer. Cirka 2.3 millioner sårbarheder blev opdaget på tværs af over 50,000 applikationer, der bruger disse data. De ti mest kritiske sikkerhedsproblemer for onlineapplikationer ifølge OWASP Top 10 – 2017 er:

  • Injektion
  • Godkendelsesproblemer
  • Eksponerede følsomme data XML eksterne enheder (XXE)
  • Adgangskontrol, der ikke virker
  • Fejlkonfiguration af sikkerhed
  • Site-to-site scripting (XSS)
  • Deserialisering, der ikke er sikker
  • Brug af komponenter, der har kendte fejl
  • Logning og overvågning er utilstrækkelig.

Derfor er praksis med at forsvare websteder og onlinetjenester mod forskellige sikkerhedstrusler, der udnytter svagheder i en applikations kode, kendt som webapplikationssikkerhed. Indholdsstyringssystemer (f.eks. WordPress), databaseadministrationsværktøjer (f.eks. phpMyAdmin) og SaaS-apps er alle almindelige mål for online-applikationsangreb.

Webapplikationer betragtes som højprioriterede mål af gerningsmændene, fordi:

  • På grund af den indviklede kildekode, er uovervågede sårbarheder og ondsindet kodeændring mere sandsynlig.
  • Belønninger af høj værdi, såsom følsomme personlige oplysninger opnået gennem effektiv kildekodemanipulation.
  • Nem henrettelse, fordi de fleste overfald let kan automatiseres og udsendes vilkårligt mod tusinder, tiere eller endda hundredtusinder af mål på én gang.
  • Organisationer, der undlader at beskytte deres webapplikationer, er sårbare over for angreb. Dette kan blandt andet føre til datatyveri, anstrengte klientforhold, annullerede licenser og retslige skridt.

Sårbarheder på websteder

Input/output-saneringsfejl er almindelige i webapplikationer, og de bliver ofte udnyttet til enten at ændre kildekode eller få uautoriseret adgang.

Disse fejl giver mulighed for udnyttelse af en række forskellige angrebsvektorer, herunder:

  • SQL-injektion – Når en gerningsmand manipulerer en backend-database med ondsindet SQL-kode, afsløres information. Ulovlig listesøgning, sletning af tabeller og uautoriseret administratoradgang er blandt konsekvenserne.
  • XSS (Cross-site Scripting) er et injektionsangreb, der retter sig mod brugere for at få adgang til konti, aktivere trojanske heste eller ændre sideindhold. Når skadelig kode injiceres direkte i en applikation, er dette kendt som lagret XSS. Når ondsindet script spejles fra et program til en brugers browser, er dette kendt som reflekteret XSS.
  • Fjern filinkludering - Denne form for angreb gør det muligt for en hacker at injicere en fil i en webapplikationsserver fra en fjernplacering. Dette kan føre til, at farlige scripts eller kode udføres i appen, samt datatyveri eller ændring.
  • Cross-site Request Forgery (CSRF) – En type angreb, der kan resultere i en utilsigtet overførsel af kontanter, ændringer af adgangskode eller datatyveri. Det opstår, når et ondsindet webprogram instruerer en brugers browser til at udføre en uønsket handling på et websted, som de er logget ind på.

I teorien kan effektiv input/output-sanering udrydde alle sårbarheder, hvilket gør en applikation uigennemtrængelig for uautoriserede ændringer.

Men fordi de fleste programmer er i en evig udviklingstilstand, er omfattende desinficering sjældent en levedygtig mulighed. Desuden er apps almindeligvis integreret med hinanden, hvilket resulterer i et kodet miljø, der bliver mere og mere komplekst.

For at undgå sådanne farer bør webapplikationssikkerhedsløsninger og -processer, såsom PCI Data Security Standard (PCI DSS)-certificering, implementeres.

Firewall til webapplikationer (WAF)

WAF'er (webapplikationsfirewalls) er hardware- og softwareløsninger, der beskytter applikationer mod sikkerhedstrusler. Disse løsninger er designet til at inspicere indgående trafik for at detektere og blokere angrebsforsøg, og kompensere for eventuelle kodesaneringsfejl.

WAF-implementering adresserer et afgørende kriterium for PCI DSS-certificering ved at beskytte data mod tyveri og modifikation. Alle kredit- og betalingskortholderdata, der opbevares i en database, skal beskyttes i henhold til krav 6.6.

Fordi det er sat foran sin DMZ ved netværkets kant, kræver etablering af en WAF normalt ikke nogen ændringer af en applikation. Det fungerer derefter som en gateway for al indgående trafik, og filtrerer farlige anmodninger fra, før de kan interagere med en applikation.

For at vurdere, hvilken trafik der har adgang til en applikation, og hvilken der skal luges ud, anvender WAF'er en række forskellige heuristika. De kan hurtigt identificere ondsindede aktører og kendte angrebsvektorer takket være en regelmæssigt opdateret signaturpulje.

Næsten alle WAF'er kan skræddersyes til individuelle brugssager og sikkerhedsbestemmelser, såvel som bekæmpelse af nye (også kendt som zero-day) trusler. Endelig, for at opnå yderligere indsigt i indkommende besøgende, bruger de fleste moderne løsninger omdømme- og adfærdsdata.

For at bygge en sikkerhedsperimeter kombineres WAF'er normalt med yderligere sikkerhedsløsninger. Disse kunne omfatte distribuerede denial-of-service (DDoS) forebyggelsestjenester, som giver den ekstra skalerbarhed, der er nødvendig for at forhindre angreb i store mængder.

Tjekliste til webapplikationssikkerhed
Der er en række forskellige tilgange til beskyttelse af webapps ud over WAF'er. Enhver webapplikationssikkerhedstjekliste bør omfatte følgende procedurer:

  • Indsamling af data — Gennemgå applikationen manuelt, og se efter indgangspunkter og koder på klientsiden. Klassificer indhold, der hostes af en tredjepart.
  • Autorisation — Se efter stigennemløb, problemer med lodret og horisontal adgangskontrol, manglende autorisation og usikre, direkte objektreferencer, når du tester applikationen.
  • Sikre alle datatransmissioner med kryptografi. Er nogen følsomme oplysninger blevet krypteret? Har du brugt nogen algoritmer, der ikke er til snus? Er der nogen tilfældighedsfejl?
  • Denial of service — Test for anti-automatisering, kontolås, HTTP-protokol DoS og SQL wildcard DoS for at forbedre en applikations modstandsdygtighed mod lammelsesangreb. Dette inkluderer ikke sikkerhed mod højvolumen DoS- og DDoS-angreb, som kræver en blanding af filtreringsteknologier og skalerbare ressourcer for at modstå.

For yderligere detaljer kan man tjekke OWASP Web Application Security Testing Cheat Sheet (det er også en fantastisk ressource til andre sikkerhedsrelaterede emner).

DDoS beskyttelse

DDoS-angreb eller distribuerede denial-of-service-angreb er en typisk måde at afbryde en webapplikation på. Der er en række tilgange til at afbøde DDoS-angreb, herunder kassering af volumetrisk angrebstrafik på Content Delivery Networks (CDN'er) og brug af eksterne netværk til at rute ægte anmodninger korrekt uden at forårsage en tjenesteafbrydelse.

DNSSEC (Domain Name System Security Extensions) beskyttelse

Domænenavnesystemet, eller DNS, er internettets telefonbog, og det afspejler, hvordan et internetværktøj, såsom en webbrowser, finder den relevante server. DNS-cacheforgiftning, on-path-angreb og andre midler til at forstyrre DNS-opslagslivscyklussen vil blive brugt af dårlige aktører til at kapre denne DNS-anmodningsproces. Hvis DNS er internettets telefonbog, er DNSSEC et opkalds-id, der ikke kan forfalskes. En anmodning om DNS-opslag kan beskyttes ved hjælp af DNSSEC-teknologien.

For at gøre dig nærmere bekendt med certificeringspensum kan du udvide og analysere nedenstående tabel.

EITC/IS/WASF Web Applications Security Fundamentals Certification Curriculum refererer til didaktisk materiale med åben adgang i en videoform. Læreprocessen er opdelt i en trin-for-trin struktur (programmer -> lektioner -> emner), der dækker relevante læseplansdele. Der tilbydes også ubegrænset rådgivning med domæneeksperter.
Tjek for detaljer om certificeringsproceduren Sådan fungerer det.

Læs mere
Ingen kommentarer

EITC/IS/ACSS Advanced Computer Systems Security

Mandag, 18 oktober 2021 by admin

EITC/IS/ACSS Advanced Computer Systems Security er det europæiske it-certificeringsprogram om teoretiske og praktiske aspekter af cybersikkerhed i computersystemer.

Læseplanen for EITC/IS/ACSS Advanced Computer Systems Security dækker viden og praktiske færdigheder inden for mobile smarte enheder sikkerhed, sikkerhedsanalyse, symbolsk udførelse, netværkssikkerhed (herunder websikkerhedsmodel og sikre kanaler og sikkerhedscertifikater), praktiske implementeringer i real- livsscenarier, sikkerhed for meddelelser og lagring samt timing af angreb inden for følgende struktur, der omfatter omfattende videodidaktisk indhold som reference for denne EITC-certificering.

Avancerede computersystemers sikkerhed går ud over indledende begreber. Læreplanen dækker først mobilenheders sikkerhed (herunder sikkerheden af ​​mobile apps). Læreplanen fortsætter derefter til formel sikkerhedsanalyse, som er et vigtigt aspekt af avancerede computersystemers sikkerhed, med hovedfokus på symbolsk eksekvering. Yderligere diskuterer pensum introduktion til netværkssikkerhed, herunder introduktion af websikkerhedsmodellen, netværkssikkerhed, definition og teori om sikre kanaler, samt sikkerhedscertifikater. Ydermere omhandler læseplanen praktisk implementering af informationssikkerhed, især i betragtning af virkelige scenarier. Det fortsætter derefter med at diskutere visse områder af sikkerhedsapplikationer, nemlig kommunikation (beskeder) og lagring (med ikke-pålidelige lagringsservere). Den konkluderer med at diskutere avancerede computersystemers sikkerhedstrusler i form af CPU-timingangrebene.

Beskyttelse af computersystemer og information mod skade, tyveri og ulovlig brug er generelt kendt som computersystemsikkerhed, nogle gange også omtalt som cybersikkerhed. Serienumre, fysiske sikkerhedsforanstaltninger, overvågning og alarmer bruges almindeligvis til at beskytte computerudstyr, ligesom de er for andet vigtigt eller følsomt udstyr. Information og systemadgang i software er på den anden side beskyttet ved hjælp af en række forskellige strategier, hvoraf nogle er ret komplicerede og kræver tilstrækkelige faglige kompetencer.

Fire vigtige farer behandles af sikkerhedsprocedurerne i forbindelse med computersystemers behandlede information og adgang:

  • Datatyveri fra offentlige computere, såsom intellektuel ejendom,
  • Hærværk, herunder brug af en computervirus til at ødelægge eller kapre data,
  • Svig, såsom hackere (eller f.eks. bankpersonale), der omdirigerer penge til deres egne konti,
  • Krænkelse af privatlivets fred, såsom indhentning af beskyttede personlige økonomiske eller medicinske data fra en stor database uden tilladelse.

Den mest basale metode til at sikre et computersystem mod tyveri, hærværk, krænkelse af privatlivets fred og anden uansvarlig adfærd er at spore og registrere de forskellige brugeres adgang til og aktivitet på systemet. Dette opnås ofte ved at give hver person, der har adgang til et system, en unik adgangskode. Computersystemet kan derefter spore brugen af ​​disse adgangskoder automatisk, og noterer oplysninger som hvilke filer der blev tilgået med hvilke adgangskoder, og så videre. En anden sikkerhedsteknik er at opbevare et systems data på en anden enhed eller et andet medium, som normalt er utilgængeligt via computersystemet. Endelig er data ofte krypteret, hvilket kun tillader dem med en enkelt krypteringsnøgle at afkode dem (hvilket falder ind under begrebet kryptografi).

Siden introduktionen af ​​modemer (enheder, der tillader computere at interagere via telefonlinjer) i slutningen af ​​1960'erne, har computersikkerhed været stadig mere afgørende. I 1980'erne forværrede udviklingen af ​​personlige computere problemet ved at tillade hackere (uansvarligt agerende, typisk autodidakte computerprofessionelle, omgå begrænsninger for computeradgang) ulovligt at få adgang til vigtige computersystemer fra komforten af ​​deres eget hjem. Med internettets eksplosive stigning i slutningen af ​​det tyvende og begyndelsen af ​​det enogtyvende århundrede blev computersikkerhed en stor bekymring. Udviklingen af ​​forbedrede sikkerhedssystemer forsøger at reducere sådanne sårbarheder, men alligevel udvikler computerkriminalitet sig hele tiden, hvilket udgør nye risici.

At spørge, hvad der bliver sikret, er en teknik til at bestemme lighederne og forskellene i computersystemernes sikkerhed. 

Som et eksempel,

  • Informationssikkerhed er beskyttelse af data mod uautoriseret adgang, ændring og sletning.
  • Applikationssikkerhed er beskyttelsen af ​​en applikation mod cybertrusler såsom SQL-injektion, DoS-angreb, databrud og så videre.
  • Computersikkerhed er defineret som beskyttelse af computersystemer, der kommunikerer over computernetværk med hensyn til kontrol ved at holde dem opdaterede og patchede.
  • Netværkssikkerhed er defineret som sikring af både software- og hardwareteknologier i et netværksmiljø – cybersikkerhed defineres som at beskytte computersystemer, der kommunikerer over computernetværk med hensyn til kontrol ved at holde dem opdaterede og patchede.

Det er afgørende at genkende forskellene mellem disse udtryk, selvom der ikke altid er en klar forståelse af deres definitioner eller i hvor høj grad de overlapper eller er udskiftelige. Computersystemsikkerhed henviser til de sikkerhedsforanstaltninger, der er indført for at sikre fortroligheden, integriteten og tilgængeligheden af ​​alle computersystemkomponenter.

Følgende er komponenterne i et computersystem, der skal beskyttes:

  • Hardware eller de fysiske komponenter i et computersystem, såsom systemhukommelsen og diskdrevet.
  • Firmware er ikke-flygtig software, der er permanent lagret på den ikke-flygtige hukommelse på en hardwareenhed og generelt er gennemsigtig for brugeren.
  • Software er computerprogrammer, der giver brugerne tjenester såsom et operativsystem, tekstbehandler og webbrowser, der bestemmer, hvordan hardwaren fungerer for at behandle information i overensstemmelse med de mål, der er defineret af softwaren.

CIA-triaden beskæftiger sig primært med tre områder af computersystemsikkerhed:

  • Fortrolighed sikrer, at kun den tilsigtede målgruppe har adgang til information.
  • Integritet refererer til at forhindre uautoriserede parter i at ændre behandlede data.
  • Tilgængelighed refererer til evnen til at forhindre uautoriserede parter i at ændre data.

Information og computerkomponenter skal være brugbare, samtidig med at de er beskyttet mod enkeltpersoner eller software, der ikke burde kunne få adgang til eller ændre dem.

De hyppigste sikkerhedstrusler på computersystemer

Computersystemers sikkerhedsrisici er potentielle farer, der kan forstyrre din computers rutinemæssige drift. Efterhånden som verden bliver mere digital, bliver cyberrisici mere udbredt. Følgende er de farligste typer computersikkerhedstrusler:

  • Virus – en computervirus er et ondsindet program, der installeres uden brugerens viden på deres computer. Det replikerer sig selv og inficerer brugerens data og programmer. Det ultimative formål med en virus er at forhindre, at ofrets computer nogensinde fungerer korrekt eller overhovedet.
  • Computerorm - en computerorm er en type software, der kan kopiere sig selv fra en computer til en anden uden behov for menneskelig indgriben. Fordi en orm kan replikere i store mængder og ved høje hastigheder, er der risiko for, at den æder din computers harddiskplads.
  • Phishing – handling af en person, der udgiver sig for at være en troværdig person eller enhed for at stjæle kritiske økonomiske eller personlige oplysninger (herunder computersystemers adgangsoplysninger) via såkaldte phishing-e-mails eller instant messaging. Phishing er desværre utroligt nemt at udføre. Et offer bliver bedraget til at tro, at kommunikationen fra phisheren er en autentisk officiel kommunikation, og ofret giver frit følsomme personlige oplysninger.
  • Botnet – et botnet er en gruppe computere, der er knyttet til internettet, og som er blevet inficeret med en computervirus af en hacker. Udtrykket zombiecomputer eller en bot refererer til en enkelt computer i botnettet. Ofrets computer, som er bot i botnet, vil blive udnyttet til ondsindede handlinger og større angreb som DDoS som følge af denne trussel.
  • Rootkit – et rootkit er et computerprogram, der bevarer privilegeret adgang til en computer, mens det forsøger at skjule dens tilstedeværelse. Rootkittets controller vil være i stand til at fjernafvikle filer og ændre systemkonfigurationer på værtsmaskinen, når den er blevet installeret.
  • Keylogger – keyloggere, ofte kendt som tastetryksloggere, kan overvåge en brugers computeraktivitet i realtid. Den registrerer alle tastetryk udført af brugerens tastatur. Brugen af ​​en keylogger til at stjæle folks loginoplysninger, såsom brugernavn og adgangskode, er også en alvorlig trussel.

Disse er måske de mest udbredte sikkerhedsrisici, man kan støde på for nylig. Der er flere, såsom malware, wabbits, scareware, bluesnarfing og mange andre. Der er heldigvis teknikker til at forsvare computersystemer og deres brugere mod sådanne angreb.

Vi ønsker alle at holde vores computersystemer og personlige eller professionelle oplysninger private i denne digitale æra, derfor er computersystemers sikkerhed afgørende for at beskytte vores personlige oplysninger. Det er også vigtigt at holde vores computere sikre og sunde ved at undgå, at vira og malware forårsager ødelæggelse af systemets ydeevne.

Praksis inden for sikkerhed i computersystemer

I disse dage bliver computersystemers sikkerhedsrisici mere og mere innovative. For at beskytte mod disse komplicerede og stigende computersikkerhedsrisici og forblive sikker online, skal man bevæbne sig med information og ressourcer. Man kan tage følgende forholdsregler:

  • Installation af pålidelig antivirus- og sikkerhedssoftware
  • Fordi en firewall fungerer som en sikkerhedsvagt mellem internettet og dit lokale netværk, bør du aktivere den.
  • Hold dig opdateret med den nyeste software og nyheder om dine enheder, og installer opdateringer, så snart de bliver tilgængelige.
  • Hvis du er usikker på oprindelsen af ​​en e-mail-vedhæftet fil, skal du ikke åbne den.
  • Brug en unik kombination af tal, bogstaver og store bogstaver, og skift adgangskoder regelmæssigt.
  • Mens du får adgang til internettet, skal du være forsigtig med pop-ups og drive-by downloads.
  • At investere tiden i at lære om det grundlæggende i computersikkerhed og holde trit med de seneste cybertrusler
  • Udfør daglige komplette systemscanninger og opret en regelmæssig systemsikkerhedskopieringsplan for at sikre, at dine data kan gendannes i tilfælde af, at din maskine fejler.

Bortset fra disse er der en række andre professionelle tilgange til at beskytte computersystemer. Aspekter, herunder tilstrækkelige sikkerhedsarkitektoniske specifikationer, kryptering og specialistsoftware, kan hjælpe med at beskytte computersystemer.

Desværre er antallet af cyberfarer hastigt stigende, og mere komplekse angreb dukker op. For at bekæmpe disse angreb og afbøde farer kræves der mere professionelle og specialiserede cybersikkerhedsfærdigheder.

For at gøre dig nærmere bekendt med certificeringspensum kan du udvide og analysere nedenstående tabel.

EITC/IS/ACSS Advanced Computer Systems Security Certification Curriculum refererer til didaktisk materiale med åben adgang i en videoform. Læreprocessen er opdelt i en trin-for-trin struktur (programmer -> lektioner -> emner), der dækker relevante læseplansdele. Der tilbydes også ubegrænset rådgivning med domæneeksperter.
Tjek for detaljer om certificeringsproceduren Sådan fungerer det.

Læs mere
Ingen kommentarer

Grundlæggende for EITC/IS/CSSF computersystemer

Mandag, 03 May 2021 by admin

EITC/IS/CSSF Computer Systems Security Fundamentals er det europæiske it-certificeringsprogram om teoretiske og praktiske aspekter af cybersikkerhed i computersystemer.

Læreplanen for EITC/IS/CSSF Computer Systems Security Fundamentals dækker viden og praktiske færdigheder inden for computersystemers sikkerhedsarkitektur, brugergodkendelse, klasser af angreb, sikkerhedssårbarheder, skadereduktion, privilegieadskillelse, softwarebeholdere og isolering, samt sikre enklaver, inden for følgende struktur, der omfatter omfattende videodidaktisk indhold som reference for denne EITC-certificering.

Computersystemsikkerhed er et bredt koncept for anvendelse af arkitekturer og metoder til at sikre sikker informationsbehandling og kommunikation i computersystemer. For at løse dette problem fra et teoretisk synspunkt dækker læseplanen først computersystemers sikkerhedsarkitektur. Derefter fortsætter det med at diskutere problemer med brugergodkendelse i sikre computersystemer, efterfulgt af overvejelser om computersystemangreb med fokus på en generel klasse af de såkaldte bufferoverløbsangreb. Læseplanen dækker derefter sikkerhedssårbarheder, skadereduktion i computersystemer, med fokus på privilegieadskillelse, linux-beholdere og softwareisolering. Den sidste del af læseplanen dækker sikre enklaver i computersystemer.

Beskyttelse af computersystemer og information mod skade, tyveri og ulovlig brug er generelt kendt som computersystemsikkerhed, nogle gange også omtalt som cybersikkerhed. Serienumre, fysiske sikkerhedsforanstaltninger, overvågning og alarmer bruges almindeligvis til at beskytte computerudstyr, ligesom de er for andet vigtigt eller følsomt udstyr. Information og systemadgang i software er på den anden side beskyttet ved hjælp af en række forskellige strategier, hvoraf nogle er ret komplicerede og kræver tilstrækkelige faglige kompetencer.

Fire vigtige farer behandles af sikkerhedsprocedurerne i forbindelse med computersystemers behandlede information og adgang:

  • Datatyveri fra offentlige computere, såsom intellektuel ejendom,
  • Hærværk, herunder brug af en computervirus til at ødelægge eller kapre data,
  • Svig, såsom hackere (eller f.eks. bankpersonale), der omdirigerer penge til deres egne konti,
  • Krænkelse af privatlivets fred, såsom indhentning af beskyttede personlige økonomiske eller medicinske data fra en stor database uden tilladelse.

Den mest basale metode til at sikre et computersystem mod tyveri, hærværk, krænkelse af privatlivets fred og anden uansvarlig adfærd er at spore og registrere de forskellige brugeres adgang til og aktivitet på systemet. Dette opnås ofte ved at give hver person, der har adgang til et system, en unik adgangskode. Computersystemet kan derefter spore brugen af ​​disse adgangskoder automatisk, og noterer oplysninger som hvilke filer der blev tilgået med hvilke adgangskoder, og så videre. En anden sikkerhedsteknik er at opbevare et systems data på en anden enhed eller et andet medium, som normalt er utilgængeligt via computersystemet. Endelig er data ofte krypteret, hvilket kun tillader dem med en enkelt krypteringsnøgle at afkode dem (hvilket falder ind under begrebet kryptografi).

Siden introduktionen af ​​modemer (enheder, der tillader computere at interagere via telefonlinjer) i slutningen af ​​1960'erne, har computersikkerhed været stadig mere afgørende. I 1980'erne forværrede udviklingen af ​​personlige computere problemet ved at tillade hackere (uansvarligt agerende, typisk autodidakte computerprofessionelle, omgå begrænsninger for computeradgang) ulovligt at få adgang til vigtige computersystemer fra komforten af ​​deres eget hjem. Med internettets eksplosive stigning i slutningen af ​​det tyvende og begyndelsen af ​​det enogtyvende århundrede blev computersikkerhed en stor bekymring. Udviklingen af ​​forbedrede sikkerhedssystemer forsøger at reducere sådanne sårbarheder, men alligevel udvikler computerkriminalitet sig hele tiden, hvilket udgør nye risici.

At spørge, hvad der bliver sikret, er en teknik til at bestemme lighederne og forskellene i computersystemernes sikkerhed. 

Som et eksempel,

  • Informationssikkerhed er beskyttelse af data mod uautoriseret adgang, ændring og sletning.
  • Applikationssikkerhed er beskyttelsen af ​​en applikation mod cybertrusler såsom SQL-injektion, DoS-angreb, databrud og så videre.
  • Computersikkerhed er defineret som beskyttelse af computersystemer, der kommunikerer over computernetværk med hensyn til kontrol ved at holde dem opdaterede og patchede.
  • Netværkssikkerhed er defineret som sikring af både software- og hardwareteknologier i et netværksmiljø – cybersikkerhed defineres som at beskytte computersystemer, der kommunikerer over computernetværk med hensyn til kontrol ved at holde dem opdaterede og patchede.

Det er afgørende at genkende forskellene mellem disse udtryk, selvom der ikke altid er en klar forståelse af deres definitioner eller i hvor høj grad de overlapper eller er udskiftelige. Computersystemsikkerhed henviser til de sikkerhedsforanstaltninger, der er indført for at sikre fortroligheden, integriteten og tilgængeligheden af ​​alle computersystemkomponenter.

Følgende er komponenterne i et computersystem, der skal beskyttes:

  • Hardware eller de fysiske komponenter i et computersystem, såsom systemhukommelsen og diskdrevet.
  • Firmware er ikke-flygtig software, der er permanent lagret på den ikke-flygtige hukommelse på en hardwareenhed og generelt er gennemsigtig for brugeren.
  • Software er computerprogrammer, der giver brugerne tjenester såsom et operativsystem, tekstbehandler og webbrowser, der bestemmer, hvordan hardwaren fungerer for at behandle information i overensstemmelse med de mål, der er defineret af softwaren.

CIA-triaden beskæftiger sig primært med tre områder af computersystemsikkerhed:

  • Fortrolighed sikrer, at kun den tilsigtede målgruppe har adgang til information.
  • Integritet refererer til at forhindre uautoriserede parter i at ændre behandlede data.
  • Tilgængelighed refererer til evnen til at forhindre uautoriserede parter i at ændre data.

Information og computerkomponenter skal være brugbare, samtidig med at de er beskyttet mod enkeltpersoner eller software, der ikke burde kunne få adgang til eller ændre dem.

De hyppigste sikkerhedstrusler på computersystemer

Computersystemers sikkerhedsrisici er potentielle farer, der kan forstyrre din computers rutinemæssige drift. Efterhånden som verden bliver mere digital, bliver cyberrisici mere udbredt. Følgende er de farligste typer computersikkerhedstrusler:

  • Virus – en computervirus er et ondsindet program, der installeres uden brugerens viden på deres computer. Det replikerer sig selv og inficerer brugerens data og programmer. Det ultimative formål med en virus er at forhindre, at ofrets computer nogensinde fungerer korrekt eller overhovedet.
  • Computerorm - en computerorm er en type software, der kan kopiere sig selv fra en computer til en anden uden behov for menneskelig indgriben. Fordi en orm kan replikere i store mængder og ved høje hastigheder, er der risiko for, at den æder din computers harddiskplads.
  • Phishing – handling af en person, der udgiver sig for at være en troværdig person eller enhed for at stjæle kritiske økonomiske eller personlige oplysninger (herunder computersystemers adgangsoplysninger) via såkaldte phishing-e-mails eller instant messaging. Phishing er desværre utroligt nemt at udføre. Et offer bliver bedraget til at tro, at kommunikationen fra phisheren er en autentisk officiel kommunikation, og ofret giver frit følsomme personlige oplysninger.
  • Botnet – et botnet er en gruppe computere, der er knyttet til internettet, og som er blevet inficeret med en computervirus af en hacker. Udtrykket zombiecomputer eller en bot refererer til en enkelt computer i botnettet. Ofrets computer, som er bot i botnet, vil blive udnyttet til ondsindede handlinger og større angreb som DDoS som følge af denne trussel.
  • Rootkit – et rootkit er et computerprogram, der bevarer privilegeret adgang til en computer, mens det forsøger at skjule dens tilstedeværelse. Rootkittets controller vil være i stand til at fjernafvikle filer og ændre systemkonfigurationer på værtsmaskinen, når den er blevet installeret.
  • Keylogger – keyloggere, ofte kendt som tastetryksloggere, kan overvåge en brugers computeraktivitet i realtid. Den registrerer alle tastetryk udført af brugerens tastatur. Brugen af ​​en keylogger til at stjæle folks loginoplysninger, såsom brugernavn og adgangskode, er også en alvorlig trussel.

Disse er måske de mest udbredte sikkerhedsrisici, man kan støde på for nylig. Der er flere, såsom malware, wabbits, scareware, bluesnarfing og mange andre. Der er heldigvis teknikker til at forsvare computersystemer og deres brugere mod sådanne angreb.

Vi ønsker alle at holde vores computersystemer og personlige eller professionelle oplysninger private i denne digitale æra, derfor er computersystemers sikkerhed afgørende for at beskytte vores personlige oplysninger. Det er også vigtigt at holde vores computere sikre og sunde ved at undgå, at vira og malware forårsager ødelæggelse af systemets ydeevne.

Praksis inden for sikkerhed i computersystemer

I disse dage bliver computersystemers sikkerhedsrisici mere og mere innovative. For at beskytte mod disse komplicerede og stigende computersikkerhedsrisici og forblive sikker online, skal man bevæbne sig med information og ressourcer. Man kan tage følgende forholdsregler:

  • Installation af pålidelig antivirus- og sikkerhedssoftware
  • Fordi en firewall fungerer som en sikkerhedsvagt mellem internettet og dit lokale netværk, bør du aktivere den.
  • Hold dig opdateret med den nyeste software og nyheder om dine enheder, og installer opdateringer, så snart de bliver tilgængelige.
  • Hvis du er usikker på oprindelsen af ​​en e-mail-vedhæftet fil, skal du ikke åbne den.
  • Brug en unik kombination af tal, bogstaver og store bogstaver, og skift adgangskoder regelmæssigt.
  • Mens du får adgang til internettet, skal du være forsigtig med pop-ups og drive-by downloads.
  • At investere tiden i at lære om det grundlæggende i computersikkerhed og holde trit med de seneste cybertrusler
  • Udfør daglige komplette systemscanninger og opret en regelmæssig systemsikkerhedskopieringsplan for at sikre, at dine data kan gendannes i tilfælde af, at din maskine fejler.

Bortset fra disse er der en række andre professionelle tilgange til at beskytte computersystemer. Aspekter, herunder tilstrækkelige sikkerhedsarkitektoniske specifikationer, kryptering og specialistsoftware, kan hjælpe med at beskytte computersystemer.

Desværre er antallet af cyberfarer hastigt stigende, og mere komplekse angreb dukker op. For at bekæmpe disse angreb og afbøde farer kræves der mere professionelle og specialiserede cybersikkerhedsfærdigheder.

For at gøre dig nærmere bekendt med certificeringspensum kan du udvide og analysere nedenstående tabel.

EITC/IS/CSSF Computer Systems Security Fundamentals Certification Curriculum refererer til didaktisk materiale med åben adgang i en videoform. Læreprocessen er opdelt i en trin-for-trin struktur (programmer -> lektioner -> emner), der dækker relevante læseplansdele. Der tilbydes også ubegrænset rådgivning med domæneeksperter.
Tjek for detaljer om certificeringsproceduren Sådan fungerer det.

Læs mere
Ingen kommentarer

EITC/IS/CCTF Computational Complexity Theory Fundamentals

Mandag, 03 May 2021 by admin

EITC/IS/CCTF Computational Complexity Theory Fundamentals er det europæiske IT-certificeringsprogram om teoretiske aspekter af grundlaget for datalogi, som også er grundlaget for klassisk asymmetrisk offentlig nøglekryptografi, der i vid udstrækning anvendes på internettet.

Læseplanen for EITC/IS/CCTF Computational Complexity Theory Fundamentals dækker teoretisk viden om grundlaget for datalogi og beregningsmodeller på grundbegreber som deterministiske og ikke-deterministiske endelige tilstandsmaskiner, regulære sprog, kontekstfrie grammatikere og sprogteori, automatteori, Turing Maskiner, problemers afgørelighed, rekursion, logik og kompleksitet af algoritmer til grundlæggende sikkerhedsapplikationer inden for følgende struktur, der omfatter omfattende videodidaktisk indhold som reference for denne EITC-certificering.

En algoritmes beregningsmæssige kompleksitet er mængden af ​​ressourcer, der kræves for at betjene den. Tids- og hukommelsesressourcer får særlig opmærksomhed. Et problems kompleksitet defineres som kompleksiteten af ​​de bedste algoritmer til at løse det. Analyse af algoritmer er studiet af kompleksiteten af ​​eksplicit givne algoritmer, hvorimod beregningsmæssig kompleksitetsteori er studiet af kompleksiteten af ​​problemløsninger med bedst kendte algoritmer. Begge domæner er sammenflettet, fordi en algoritmes kompleksitet altid er en øvre begrænsning for kompleksiteten af ​​det problem, den løser. Desuden er det ofte nødvendigt at sammenligne kompleksiteten af ​​en bestemt algoritme med kompleksiteten af ​​det problem, der skal løses, mens der konstrueres effektive algoritmer. I de fleste tilfælde er den eneste tilgængelige information om et problems vanskelighed, at det er mindre end kompleksiteten af ​​de mest effektive kendte teknikker. Som et resultat er der meget overlap mellem algoritmeanalyse og kompleksitetsteori.

Kompleksitetsteori spiller ikke kun en vigtig rolle i grundlaget for beregningsmodeller som grundlag for datalogi, men også i grundlaget for klassisk asymmetrisk kryptografi (såkaldt offentlig nøglekryptografi), som er vidt udbredt i moderne netværk, især på internettet. Public-key-krypteringen er baseret på beregningsmæssige vanskeligheder af visse asymmetriske matematiske problemer, såsom for eksempel faktorisering af store tal til dets primfaktorer (denne operation er et svært problem i kompleksitetsteori-klassificeringen, fordi der ikke er kendte effektive klassiske algoritmer til at løse det med ressourcer, der skaleres polynomielt snarere end eksponentielt med stigningen af ​​problemets inputstørrelse, hvilket er i modsætning til en meget simpel omvendt operation med at gange til kendte primfaktorer for at give det oprindelige store tal). Ved at bruge denne asymmetri i en arkitektur af offentlig nøglekryptografi (ved at definere en beregningsmæssigt asymmetrisk relation mellem den offentlige nøgle, der let kan beregnes fra en privat nøgle, mens den private nøgle ikke let kan computer fra en offentlig nøgle, kan man offentligt annoncerer den offentlige nøgle og gør det muligt for andre kommunikationssider at bruge den til asymmetrisk kryptering af data, som så kun kan dekrypteres med den koblede private nøgle, som ikke er beregnet tilgængelig for tredjeparter, hvilket gør kommunikationen sikker).

Teorien om beregningskompleksitet blev hovedsageligt udviklet på præstationer af datalogi og algoritmiske pionerer, såsom Alan Turing, hvis arbejde var afgørende for at bryde Nazitysklands Enigma-chiffer, som spillede en dybtgående rolle i, at allierede vandt Anden Verdenskrig. Krypteringsanalyse, der sigter mod at udtænke og automatisere de beregningsmæssige processer til at analysere data (hovedsageligt krypteret kommunikation) for at afdække den skjulte information, blev brugt til at bryde kryptografiske systemer og få adgang til indholdet af krypteret kommunikation, normalt af strategisk militær betydning. Det var også kryptoanalyse, der katalyserede udviklingen af ​​de første moderne computere (som oprindeligt blev anvendt til et strategisk mål om kodebrud). British Colossus (betragtet som den første moderne elektroniske og programcomputer) blev forudgået af den polske "bombe", en elektronisk beregningsenhed designet af Marian Rejewski til at hjælpe med at bryde Enigma-cifre, og overdraget til Storbritannien af ​​den polske efterretningstjeneste sammen med den erobrede tyske Enigma-krypteringsmaskine, efter at Polen blev invaderet af Tyskland i 1939. På basis af denne enhed udviklede Alan Turing sin mere avancerede pendant til med succes at bryde tysk krypteret kommunikation, som senere er blevet udviklet til moderne computere.

Fordi mængden af ​​ressourcer, der kræves for at køre en algoritme, varierer med størrelsen af ​​inputtet, udtrykkes kompleksiteten normalt som en funktion f(n), hvor n er inputstørrelsen, og f(n) enten er den værste kompleksitet ( den maksimale mængde ressourcer, der kræves på tværs af alle input af størrelse n) eller den gennemsnitlige sagskompleksitet (gennemsnittet af mængden af ​​ressourcer over alle input af størrelse n). Antallet af nødvendige elementære operationer på et input af størrelse n er almindeligvis angivet som tidskompleksitet, hvor elementære operationer antages at tage en konstant mængde tid på en bestemt computer og kun ændres med en konstant faktor, når de køres på en anden maskine. Mængden af ​​hukommelse, der kræves af en algoritme på et input af størrelse n, er kendt som rumkompleksitet.

Tid er den mest almindeligt betragtede ressource. Når udtrykket "kompleksitet" bruges uden kvalifikatoren, refererer det normalt til tidens kompleksitet.

De traditionelle tidsenheder (sekunder, minutter og så videre) anvendes ikke i kompleksitetsteori, da de er for afhængige af den valgte computer og teknologiens fremskridt. For eksempel kan en computer i dag udføre en algoritme væsentligt hurtigere end en computer fra 1960'erne, men alligevel skyldes dette teknologiske gennembrud i computerhardware snarere end en iboende kvalitet af algoritmen. Målet med kompleksitetsteori er at kvantificere algoritmernes iboende tidsbehov eller de grundlæggende tidsbegrænsninger, som en algoritme ville pålægge enhver computer. Dette opnås ved at tælle, hvor mange grundlæggende operationer der udføres under beregningen. Disse procedurer omtales almindeligvis som trin, fordi de anses for at tage konstant tid på en bestemt maskine (dvs. de er upåvirket af mængden af ​​input).

En anden afgørende ressource er mængden af ​​computerhukommelse, der kræves for at udføre algoritmer.

En anden ofte brugt ressource er mængden af ​​aritmetiske operationer. I dette scenarie bruges udtrykket "aritmetisk kompleksitet". Tidskompleksiteten er generelt produktet af den aritmetiske kompleksitet med en konstant faktor, hvis en øvre begrænsning på størrelsen af ​​den binære repræsentation af de tal, der forekommer under en beregning, er kendt.

Størrelsen af ​​de heltal, der bruges under en beregning, er ikke begrænset til mange metoder, og det er urealistisk at antage, at aritmetiske operationer kræver en fast mængde tid. Som følge heraf kan tidskompleksiteten, også kendt som bitkompleksitet, være betydeligt højere end den aritmetiske kompleksitet. Den aritmetiske vanskelighed ved at beregne determinanten for en nn heltalsmatrix er for eksempel O(n^3) for standardteknikker (gaussisk eliminering). Fordi størrelsen af ​​koefficienterne kan udvides eksponentielt under beregningen, er bitkompleksiteten af ​​de samme metoder eksponentiel i n. Hvis disse teknikker bruges sammen med multi-modulær aritmetik, kan bitkompleksiteten reduceres til O(n^4).

Bitkompleksiteten refererer i formelle termer til antallet af operationer på bits, der kræves for at køre en algoritme. Det svarer til den tidsmæssige kompleksitet op til en konstant faktor i de fleste beregningsparadigmer. Antallet af operationer på maskinord, der kræves af computere, er proportionalt med bitkompleksiteten. For realistiske beregningsmodeller er tidskompleksiteten og bitkompleksiteten således identiske.

Den ressource, der ofte overvejes ved sortering og søgning, er mængden af ​​sammenligninger af poster. Hvis dataene er godt arrangeret, er dette en god indikator for tidskompleksiteten.

På alle potentielle input er det umuligt at tælle antallet af trin i en algoritme. Fordi kompleksiteten af ​​et input stiger med dets størrelse, er det almindeligvis repræsenteret som en funktion af inputets størrelse n (i bits), og kompleksiteten er derfor en funktion af n. For input af samme størrelse kan kompleksiteten af ​​en algoritme imidlertid variere betydeligt. Som et resultat anvendes en række kompleksitetsfunktioner rutinemæssigt.

Worst-case kompleksiteten er summen af ​​al kompleksitet for alle størrelse n input, mens den gennemsnitlige case kompleksitet er summen af ​​al kompleksitet for alle størrelse n input (dette giver mening, da antallet af mulige input af en given størrelse er begrænset). Når begrebet "kompleksitet" bruges uden at blive nærmere defineret, tages der hensyn til den værste tidskompleksitet.

Worst-case og gennemsnit-case kompleksitet er notorisk svære at beregne korrekt. Desuden har disse nøjagtige værdier ringe praktisk anvendelse, fordi enhver ændring i maskin- eller beregningsparadigme ville variere kompleksiteten lidt. Desuden er ressourceforbrug ikke afgørende for små værdier af n, derfor er let implementering ofte mere tiltalende end lav kompleksitet for små n.

Af disse grunde lægges der mest opmærksomhed på kompleksitetens adfærd for høj n, det vil sige dens asymptotiske adfærd, når n nærmer sig uendelighed. Som et resultat er stor O-notation almindeligvis brugt til at angive kompleksitet.

Beregningsmodeller

Valget af en beregningsmodel, som består i at specificere de væsentlige operationer, der udføres i en tidsenhed, er afgørende for at bestemme kompleksiteten. Dette omtales nogle gange som en multitape Turing-maskine, når beregningsparadigmet ikke er specifikt beskrevet.

En deterministisk beregningsmodel er en, hvor maskinens efterfølgende tilstande og de operationer, der skal udføres, er fuldstændigt defineret af den foregående tilstand. Rekursive funktioner, lambdaregning og Turing-maskiner var de første deterministiske modeller. Random-access-maskiner (også kendt som RAM-maskiner) er et populært paradigme til at simulere computere i den virkelige verden.

Når beregningsmodellen ikke er defineret, antages der normalt en multitape Turing-maskine. På multitape Turing-maskiner er tidskompleksiteten den samme som på RAM-maskiner for de fleste algoritmer, omend der kan være behov for betydelig opmærksomhed i, hvordan data lagres i hukommelsen for at opnå denne ækvivalens.

Forskellige valg kan foretages på nogle trin af beregningen i en ikke-deterministisk computermodel, såsom ikke-deterministiske Turing-maskiner. I kompleksitetsteori betragtes alle mulige muligheder på samme tid, og ikke-deterministisk tidskompleksitet er mængden af ​​tid, der kræves, når de bedste valg altid træffes. For at sige det på en anden måde, udføres beregningen samtidigt på så mange (identiske) processorer, som der kræves, og den ikke-deterministiske beregningstid er den tid, det tager den første processor at fuldføre beregningen. Denne parallelitet kan bruges i kvanteberegning ved at bruge overlejrede sammenfiltrede tilstande, når man kører specialiserede kvantealgoritmer, såsom Shors faktorisering af små heltal for eksempel.

Selvom en sådan beregningsmodel i øjeblikket ikke er praktisk anvendelig, har den teoretisk betydning, især i forhold til P = NP-problemet, som spørger, om kompleksitetsklasserne produceret ved at bruge "polynomiel tid" og "ikke-deterministisk polynomiel tid" som mindste øvre grænser er de samme. På en deterministisk computer kræver simulering af en NP-algoritme "eksponentiel tid." Hvis en opgave kan løses i polynomisk tid på et ikke-deterministisk system, hører den til NP-sværhedsklassen. Hvis et problem er i NP og ikke er nemmere end noget andet NP-problem, siges det at være NP-komplet. Rullesækkeproblemet, det rejsende sælgerproblem og det boolske tilfredshedsproblem er alle NP-komplette kombinatoriske problemer. Den mest kendte algoritme har eksponentiel kompleksitet for alle disse problemer. Hvis nogen af ​​disse problemer kunne løses i polynomiel tid på en deterministisk maskine, så kunne alle NP-problemer også løses i polynomiel tid, og P = NP ville blive etableret. Fra 2017 er det almindeligt antaget, at P NP, hvilket antyder, at de værste situationer med NP-problemer er fundamentalt vanskelige at løse, dvs. tager langt længere tid end nogen mulig tid (årtier) givet interessante inputlængder.

Parallel og distribueret databehandling

Parallel og distribueret databehandling involverer opdeling af behandling på tværs af flere processorer, der alle arbejder på samme tid. Den grundlæggende skelnen mellem de forskellige modeller er metoden til at sende data mellem processorer. Datatransmission mellem processorer er typisk meget hurtig i parallel computing, hvorimod dataoverførsel mellem processorer i distribueret computing foregår på tværs af et netværk og dermed er væsentligt langsommere.

En beregning på N processorer tager mindst kvotienten med N af den tid, det tager på en enkelt processor. I virkeligheden, fordi nogle underopgaver ikke kan paralleliseres, og nogle processorer muligvis skal vente på et resultat fra en anden processor, vil denne teoretisk ideelle binding aldrig blive opnået.

Det centrale kompleksitetsproblem er således at udvikle algoritmer, således at produktet af regnetid med antallet af processorer er så tæt som muligt på den tid, det tager at udføre den samme beregning på en enkelt processor.

Kvanteberegning

En kvantecomputer er en computer med en kvantemekanik-baseret beregningsmodel. Church-Turing-afhandlingen gælder for kvantecomputere, hvilket antyder, at ethvert problem, som en kvantecomputer kan løse, også kan løses af en Turing-maskine. Nogle opgaver kan dog teoretisk løses ved hjælp af en kvantecomputer frem for en klassisk computer med en væsentlig lavere tidsmæssig kompleksitet. Foreløbig er dette strengt teoretisk, da ingen ved, hvordan man udvikler en praktisk kvantecomputer.

Kvantekompleksitetsteori blev skabt for at undersøge de forskellige typer problemer, der kan løses af kvantecomputere. Det bruges i post-kvantekryptografi, som er processen med at skabe kryptografiske protokoller, der er modstandsdygtige over for kvantecomputerangreb.

Problemets kompleksitet (nedre grænser)

Det infimum af kompleksiteten af ​​de algoritmer, der kan løse problemet, herunder uopdagede teknikker, er kompleksiteten af ​​problemet. Som et resultat er kompleksiteten af ​​et problem lig med kompleksiteten af ​​enhver algoritme, der løser det.

Som et resultat heraf repræsenterer enhver kompleksitet givet i stor O-notation en kompleksitet af både algoritmen og det medfølgende problem.

På den anden side er det ofte svært at opnå ikke-trivielle nedre grænser for problemkompleksitet, og der er få strategier til at gøre det.

For at løse de fleste problemer skal alle inputdata læses, hvilket tager tid i forhold til størrelsen af ​​dataene. Som et resultat heraf har sådanne problemer i det mindste lineær kompleksitet eller, i big omega-notation, en kompleksitet på Ω(n).

Nogle problemer, såsom dem i computeralgebra og beregningsmæssig algebraisk geometri, har meget store løsninger. Fordi output skal skrives, er kompleksiteten begrænset af den maksimale størrelse af output.

Antallet af sammenligninger, der kræves til en sorteringsalgoritme, har en ikke-lineær nedre grænse for Ω(nlogn). Som et resultat er de bedste sorteringsalgoritmer de mest effektive, da deres kompleksitet er O(nlogn). Det faktum, at der er n! måder at organisere n ting på fører til denne nedre grænse. Fordi hver sammenligning deler denne samling af n! ordrer i to stykker, skal antallet af N sammenligninger, der kræves for at skelne alle ordrer, være 2N > n!, hvilket betyder O(nlogn) ved Stirlings formel.

At reducere et problem til et andet problem er en almindelig strategi for at opnå reducerede kompleksitetsbegrænsninger.

Algoritmeudvikling

Evaluering af en algoritmes kompleksitet er et vigtigt element i designprocessen, da det giver nyttige oplysninger om den ydeevne, der kan forventes.

Det er en hyppig misforståelse, at som et resultat af Moores lov, der forudsiger den eksponentielle vækst af moderne computerkraft, vil evaluering af kompleksiteten af ​​algoritmer blive mindre relevant. Dette er forkert, fordi den øgede effekt giver mulighed for at behandle enorme mængder data (big data). For eksempel bør enhver algoritme fungere godt på mindre end et sekund, når du sorterer alfabetisk en liste med nogle få hundrede poster, såsom bibliografien for en bog. På den anden side, for en million indtastninger (for eksempel telefonnumrene i en stor by), ville de grundlæggende algoritmer, der kræver O(n2) sammenligninger skulle udføre en billion sammenligninger, hvilket ville tage tre timer med en hastighed på 10 millioner sammenligninger i sekundet. Quicksort og merge sort kræver på den anden side kun nlogn-sammenligninger (som gennemsnitlig-case-kompleksitet for førstnævnte, som worst-case-kompleksitet for sidstnævnte). Dette producerer omkring 30,000,000 sammenligninger for n = 1,000,000, hvilket kun ville tage 3 sekunder ved 10 millioner sammenligninger i sekundet.

Som et resultat heraf kan vurdering af kompleksitet muliggøre eliminering af mange ineffektive algoritmer før implementering. Dette kan også bruges til at finjustere komplekse algoritmer uden at skulle teste alle mulige varianter. Studiet af kompleksitet gør det muligt at fokusere indsatsen for at øge effektiviteten af ​​en implementering ved at bestemme de dyreste trin i en kompleks algoritme.

For at gøre dig nærmere bekendt med certificeringspensum kan du udvide og analysere nedenstående tabel.

EITC/IS/CCTF Computational Complexity Theory Fundamentals Certification Curriculum refererer til didaktisk materiale med åben adgang i en videoform. Læreprocessen er opdelt i en trin-for-trin struktur (programmer -> lektioner -> emner), der dækker relevante læseplansdele. Der tilbydes også ubegrænset rådgivning med domæneeksperter.
Tjek for detaljer om certificeringsproceduren Sådan fungerer det.

Læs mere
Ingen kommentarer

EITC/IS/ACC avanceret klassisk kryptografi

Mandag, 03 May 2021 by admin

EITC/IS/ACC Advanced Classical Cryptography er det europæiske it-certificeringsprogram, der fremmer ekspertiseniveauet inden for klassisk kryptografi, primært med fokus på public-key kryptografi, med en introduktion til praktiske public-key ciphers, samt digitale signaturer, offentlig nøgle infrastruktur og sikkerhedscertifikater, der er meget udbredt på internettet.

Læseplanen for EITC/IS/ACC Advanced Classical Cryptography fokuserer på den offentlige nøgle (asymmetrisk) kryptografi, startende med introduktionen til Diffie-Hellman Key Exchange og det diskrete logproblem (inklusive dets generalisering), og derefter videre til krypteringen med diskret logproblem, der dækker Elgamal Encryption Scheme, elliptiske kurver og elliptisk kurvekryptering (ECC), digitale signaturer (inklusive sikkerhedstjenester og Elgamal Digital Signature), hash-funktioner (inklusive SHA-1 har funktion), meddelelsesgodkendelseskoder (inkl , der omfatter omfattende videodidaktisk indhold som reference for denne EITC-certificering.

Kryptografi refererer til måder til sikker kommunikation i nærvær af en modstander. Kryptografi er i bredere forstand processen med at skabe og analysere protokoller, der forhindrer tredjeparter eller offentligheden i at få adgang til private (krypterede) beskeder. Moderne klassisk kryptografi er baseret på flere hovedtræk ved informationssikkerhed, såsom datafortrolighed, dataintegritet, autentificering og ikke-afvisning. I modsætning til kvantekryptografi, som er baseret på radikalt forskellige kvantefysiske regler, der karakteriserer naturen, refererer klassisk kryptografi til kryptografi baseret på klassiske fysiklove. Områderne matematik, datalogi, elektroteknik, kommunikationsvidenskab og fysik mødes alle i klassisk kryptografi. Elektronisk handel, chip-baserede betalingskort, digitale valutaer, computeradgangskoder og militær kommunikation er alle eksempler på kryptografiapplikationer.

Før den nuværende æra var kryptografi næsten synonymt med kryptering, hvilket gjorde information fra læsbar til uforståelig nonsens. For at forhindre angribere i at få adgang til en krypteret besked, deler afsenderen kun afkodningsprocessen med de tilsigtede modtagere. Navnene Alice ("A") for afsenderen, Bob ("B") for den påtænkte modtager og Eve ("aflyttet") for modstanderen bruges ofte i kryptografilitteratur.

Kryptografimetoder er blevet mere og mere komplekse, og dens anvendelser er blevet mere diversificerede, siden udviklingen af ​​rotor-chiffermaskiner i Første Verdenskrig og introduktionen af ​​computere i Anden Verdenskrig.

Moderne kryptografi er stærkt afhængig af matematisk teori og datalogi praksis; kryptografiske metoder er bygget op omkring beregningshårdhedsantagelser, hvilket gør dem vanskelige for enhver modstander at bryde i praksis. Selvom det teoretisk er muligt at bryde ind i et veldesignet system, er det umuligt at gøre det i praksis. Sådanne ordninger omtales som "beregningssikre", hvis de er tilstrækkeligt konstrueret; ikke desto mindre kræver teoretiske gennembrud (f.eks. forbedringer i heltalsfaktoriseringsmetoder) og hurtigere computerteknologi konstant revurdering og om nødvendigt tilpasning af disse designs. Der er informationsteoretisk sikre systemer, såsom engangspuden, der kan bevises at være ubrydelige selv med uendelig computerkraft, men de er betydeligt sværere at anvende i praksis end de bedste teoretisk nedbrydelige, men beregningssikre ordninger.

I informationsalderen har fremskridtet inden for kryptografisk teknologi frembragt en række juridiske udfordringer. Mange nationer har klassificeret kryptografi som et våben, hvilket begrænser eller forbyder dets brug og eksport på grund af dets potentiale for spionage og oprør. Efterforskere kan tvinge til afgivelse af krypteringsnøgler til dokumenter, der er relevante for en undersøgelse, nogle steder, hvor kryptografi er lovligt. I tilfælde af digitale medier spiller kryptografi også en nøglerolle i forvaltning af digitale rettigheder og konflikter om krænkelse af ophavsret.

Udtrykket "kryptograf" (i modsætning til "kryptogram") blev første gang brugt i det nittende århundrede, i Edgar Allan Poes novelle "The Gold-Bug."

Indtil for nylig refererede kryptografi næsten udelukkende til "kryptering", som er handlingen med at omdanne almindelige data (kendt som almindelig tekst) til et ulæseligt format (kaldet chiffertekst). Dekryptering er det modsatte af kryptering, dvs. at gå fra uforståelig chiffertekst til almindelig tekst. En cipher (eller cypher) er et sæt af teknikker, der udfører kryptering og dekryptering i omvendt rækkefølge. Algoritmen og i hvert tilfælde en "nøgle" er ansvarlige for chifferens detaljerede udførelse. Nøglen er en hemmelighed (helst kendt kun af kommunikanterne), som bruges til at dekryptere chifferteksten. Det er almindeligvis en streng af tegn (ideelt kort, så det kan huskes af brugeren). Et "kryptosystem" er den ordnede samling af elementer af endelige potentielle klartekster, cyphertekster, nøgler og de krypterings- og dekrypteringsprocedurer, der svarer til hver nøgle i formelle matematiske termer. Nøgler er afgørende både formelt og praktisk, fordi cifre med faste nøgler nemt kan brydes ved kun at bruge cipherens information, hvilket gør dem ubrugelige (eller endda kontraproduktive) til de fleste formål.

Historisk set blev chiffer ofte brugt uden yderligere procedurer såsom autentificering eller integritetstjek for kryptering eller dekryptering. Kryptosystemer er opdelt i to kategorier: symmetriske og asymmetriske. Den samme nøgle (den hemmelige nøgle) bruges til at kryptere og dekryptere en besked i symmetriske systemer, som var de eneste kendte indtil 1970'erne. Fordi symmetriske systemer bruger kortere nøglelængder, er datamanipulation i symmetriske systemer hurtigere end i asymmetriske systemer. Asymmetriske systemer krypterer en kommunikation med en "offentlig nøgle" og dekrypterer den ved hjælp af en lignende "privat nøgle". Brugen af ​​asymmetriske systemer forbedrer kommunikationssikkerheden på grund af vanskeligheden ved at bestemme forholdet mellem de to nøgler. RSA (Rivest–Shamir–Adleman) og ECC er to eksempler på asymmetriske systemer (Elliptic Curve Cryptography). Den meget brugte AES (Advanced Encryption Standard), som afløste den tidligere DES, er et eksempel på en symmetrisk algoritme af høj kvalitet (Data Encryption Standard). De forskellige teknikker til sammenfiltring af børns sprog, såsom griselatin eller anden overhøjde, og faktisk alle kryptografiske skemaer, uanset hvor alvorligt de er, fra enhver kilde forud for introduktionen af ​​engangsblokken i begyndelsen af ​​det tyvende århundrede, er eksempler på lav kvalitet symmetriske algoritmer.

Udtrykket "kode" bruges ofte i daglig tale til at henvise til enhver teknik til kryptering eller skjulning af beskeder. I kryptografi refererer kode imidlertid til, at et kodeord erstattes af en enhed af almindelig tekst (dvs. et meningsfuldt ord eller en sætning) (f.eks. erstatter "wallaby" "angreb ved daggry"). I modsætning hertil skabes en cyphertext ved at ændre eller erstatte et element under et sådant niveau (f.eks. et bogstav, en stavelse eller et par bogstaver) for at danne en cyphertext.

Krypteringsanalyse er undersøgelsen af ​​måder at dekryptere krypterede data på uden at have adgang til den nødvendige nøgle for at gøre det; med andre ord er det studiet af, hvordan man "bryder" krypteringssystemer eller deres implementeringer.

På engelsk bruger nogle mennesker i flæng udtrykkene "kryptografi" og "kryptologi", mens andre (herunder amerikansk militær praksis generelt) bruger "kryptografi" til at henvise til brug og praksis af kryptografiske teknikker og "kryptologi" for at henvise til det kombinerede studie af kryptografi og kryptoanalyse. Engelsk er mere tilpasningsdygtig end en række andre sprog, hvor "kryptologi" (som praktiseret af kryptologer) altid bruges i anden betydning. Steganografi er nogle gange inkluderet i kryptologi, ifølge RFC 2828.

Kryptolingvistik er studiet af sprogegenskaber, der har en vis relevans i kryptografi eller kryptologi (for eksempel frekvensstatistik, bogstavkombinationer, universelle mønstre og så videre).

Kryptografi og kryptoanalyse har en lang historie.
Historien om kryptografi er hovedartiklen.
Før den moderne æra var kryptografi primært beskæftiget med meddelelsesfortrolighed (dvs. kryptering) - konvertering af meddelelser fra en forståelig til en uforståelig form og igen, hvilket gør dem ulæselige af opfangere eller aflyttere uden hemmelig viden (nemlig nøglen til dekryptering). af denne besked). Kryptering blev designet til at holde samtaler mellem spioner, militærledere og diplomater private. I de seneste årtier er disciplinen vokset til blandt andet at inkorporere teknikker som kontrol af meddelelsesintegritet, autentificering af afsender/modtagers identitet, digitale signaturer, interaktive beviser og sikker beregning.

De to mest almindelige klassiske chiffertyper er transponeringscifre, som systematisk erstatter bogstaver eller grupper af bogstaver med andre bogstaver eller grupper af bogstaver (f.eks. bliver 'hej verden' til 'ehlol owrdl' i et trivielt simpelt omarrangeringsskema), og substitutionscifre, som systematisk erstatter bogstaver eller grupper af bogstaver med andre bogstaver eller grupper af bogstaver (f.eks. bliver 'flyve med det samme' til 'gmz bu Simple versioner af begge har aldrig givet meget privatliv fra snedige modstandere. Cæsar-cifferet var et tidligt substitutionsciffer, hvori hvert bogstav i klarteksten blev erstattet af et bogstav et vist antal positioner nede i alfabetet. Ifølge Suetonius brugte Julius Cæsar det med et tremandsskifte til at kommunikere med sine generaler. Et tidligt hebraisk ciffer, Atbash, er et eksempel. Den ældste kendte brug af kryptografi er en udskåret chiffertekst på sten i Egypten (ca. 1900 f.v.t.), men det er muligt, at dette blev gjort til glæde for læsekyndige tilskuere snarere end for at skjule information.

Krypter er rapporteret at have været kendt af de klassiske grækere (f.eks. den scytale transposition-chiffer, der hævdes at være blevet brugt af det spartanske militær). Steganografi (praksis med at skjule selv tilstedeværelsen af ​​en kommunikation for at holde den privat) blev også opfundet i oldtiden. En sætning tatoveret på en slaves barberede hoved og gemt under det gengroede hår, ifølge Herodot. Brugen af ​​usynlig blæk, mikroprikker og digitale vandmærker til at skjule information er mere aktuelle forekomster af steganografi.

Kautiliyam og Mulavediya er to typer cifre nævnt i Indiens 2000 år gamle Kamasutra af Vtsyyana. Chifferbogstaverstatningerne i Kautiliyam er baseret på fonetiske forhold, såsom at vokaler bliver konsonanter. Chifferalfabetet i Mulavediya består af matchende bogstaver og anvender gensidige bogstaver.

Ifølge den muslimske lærde Ibn al-Nadim havde Sassanid Persien to hemmelige skrifter: h-dabrya (bogstaveligt talt "Kongens skrift"), som blev brugt til officiel korrespondance, og rz-saharya, som blev brugt til at udveksle hemmelige beskeder med andre lande.

I sin bog The Codebreakers skriver David Kahn, at nutidig kryptologi begyndte med araberne, som var de første til omhyggeligt at dokumentere kryptoanalytiske procedurer. The Book of Cryptographic Messages er skrevet af Al-Khalil (717-786), og den indeholder den tidligste brug af permutationer og kombinationer til at liste alle tænkelige arabiske ord med og uden vokaler.

Chiffertekster genereret af en klassisk chiffer (såvel som nogle moderne chiffer) afslører statistisk information om almindelig tekst, som kan bruges til at bryde chifferen. Næsten alle sådanne cifre kunne brydes af en intelligent angriber efter opdagelsen af ​​frekvensanalyse, muligvis af den arabiske matematiker og polymat Al-Kindi (også kendt som Alkindus) i det 9. århundrede. Klassiske cifre er stadig populære i dag, omend i høj grad som puslespil (se kryptogram). Risalah fi Istikhraj al-Mu'amma (Manuskript til dechifrering af kryptografiske meddelelser) blev skrevet af Al-Kindi og dokumenterede den første kendte brug af frekvensanalyse-krypteringsteknikker.

Nogle udvidede historiekrypteringsmetoder, såsom homofonisk chiffer, der har tendens til at udjævne frekvensfordelingen, drager muligvis ikke fordel af sprogbogstavfrekvenser. Sprogbogstavsgruppe (eller n-gram) frekvenser kan give et angreb for disse cifre.

Indtil opdagelsen af ​​den polyalfabetiske chiffer, især af Leon Battista Alberti omkring 1467, var praktisk talt alle chiffer tilgængelige for kryptoanalyse ved hjælp af frekvensanalysemetoden, selvom der er nogle beviser på, at det allerede var kendt af Al-Kindi. Alberti kom op med ideen om at bruge separate cifre (eller substitutionsalfabeter) til forskellige dele af en kommunikation (måske for hvert efterfølgende bogstav i almindelig tekst ved grænsen). Han skabte også, hvad der menes at være den første automatiske krypteringsenhed, et hjul, der udførte en del af hans design. Kryptering i Vigenère-chifferet, en polyalfabetisk cipher, styres af et nøgleord, der styrer bogstaverstatning baseret på hvilket bogstav i nøgleordet, der bruges. Charles Babbage demonstrerede, at Vigenère-chifferet var sårbart over for Kasiski-analyse i midten af ​​det nittende århundrede, men Friedrich Kasiski offentliggjorde sine resultater ti år senere.

På trods af det faktum, at frekvensanalyse er en kraftfuld og bred teknik mod mange cifre, er kryptering forblevet effektiv i praksis, fordi mange kommende kryptoanalytikere er uvidende om teknikken. At bryde en besked uden at bruge frekvensanalyse krævede viden om den anvendte chiffer og muligvis den involverede nøgle, hvilket gjorde spionage, bestikkelse, indbrud, frafald og andre kryptoanalytisk uinformerede taktikker mere tiltrækkende. Hemmeligheden bag en chifferalgoritme blev i det 19. århundrede i sidste ende anerkendt som hverken en rimelig eller gennemførlig forsikring om meddelelsessikkerhed; faktisk bør enhver passende kryptografisk ordning (inklusive ciphers) forblive sikker, selvom modstanderen fuldt ud forstår selve cipher-algoritmen. Nøglens sikkerhed bør være tilstrækkelig til, at en god chiffer kan bevare fortroligheden i tilfælde af et overfald. Auguste Kerckhoffs udtalte første gang dette grundlæggende princip i 1883, og det er kendt som Kerckhoffs princip; alternativt, og mere ligeud, gentog Claude Shannon, opfinderen af ​​informationsteorien og de grundlæggende principper for teoretisk kryptografi, det som Shannons Maxim - 'fjenden kender systemet'.

For at hjælpe med ciphers er mange fysiske gadgets og assistance blevet brugt. Det antikke Grækenlands scytale, en stang, der angiveligt blev brugt af spartanerne som et værktøj til transponering af chiffer, kan have været en af ​​de første. Andre hjælpemidler blev udtænkt i middelalderen, såsom chiffergitteret, som også blev brugt til steganografi. Med udviklingen af ​​polyalfabetiske cifre blev mere sofistikerede hjælpemidler såsom Albertis ciffer-skive, Johannes Trithemius' tabula recta-skema og Thomas Jeffersons hjulciffer tilgængelige (ikke offentligt kendt og genopfundet uafhængigt af Bazeries omkring 1900). Mange mekaniske krypterings-/dekrypteringssystemer blev udtænkt og patenteret i begyndelsen af ​​det tyvende århundrede, inklusive rotormaskiner, som var berømt ansat af den tyske regering og militær fra slutningen af ​​1920'erne til Anden Verdenskrig. Efter WWI resulterede chifferne implementeret af forekomster af højere kvalitet af disse maskindesigns i en betydelig stigning i kryptoanalytiske vanskeligheder.

Kryptografi beskæftigede sig primært med sproglige og leksikografiske mønstre før det tidlige tyvende århundrede. Siden da har fokus udviklet sig, og kryptografi omfatter nu aspekter af informationsteori, beregningskompleksitet, statistik, kombinatorik, abstrakt algebra, talteori og finit matematik generelt. Kryptografi er en type teknik, men den er unik, idet den beskæftiger sig med aktiv, intelligent og fjendtlig modstand, hvorimod andre typer teknik (såsom civil- eller kemiteknik) blot skal beskæftige sig med naturlige kræfter, der er neutrale. Sammenhængen mellem kryptografiske vanskeligheder og kvantefysik bliver også undersøgt.

Udviklingen af ​​digitale computere og elektronik hjalp kryptering ved at give mulighed for at skabe betydeligt mere sofistikerede cifre. Desuden, i modsætning til traditionelle ciphers, som udelukkende krypterede skriftsprogstekster, tillod computere kryptering af enhver type data, der kunne repræsenteres i ethvert binært format; dette var nyt og afgørende. I både chifferdesign og kryptoanalyse har computere så fortrængt sprogkryptografi. I modsætning til klassiske og mekaniske metoder, som primært manipulerer traditionelle tegn (dvs. bogstaver og tal) direkte, opererer mange computercifre på binære bitsekvenser (nogle gange i grupper eller blokke). Computere har på den anden side hjulpet kryptoanalysen, som delvist har kompenseret for øget krypteringskompleksitet. På trods af dette er gode moderne cifre forblevet foran kryptoanalysen; det er ofte tilfældet, at brugen af ​​en god chiffer er meget effektiv (dvs. hurtig og kræver få ressourcer, såsom hukommelse eller CPU-kapacitet), hvorimod at bryde den kræver en indsats, der er mange størrelsesordener større og langt større end det, der kræves for nogen klassisk chiffer, hvilket effektivt gør krypteringsanalyse umulig.

Moderne kryptografi får sin debut.
De nye mekaniske enheders kryptoanalyse viste sig at være udfordrende og tidskrævende. Under Anden Verdenskrig fremmede kryptoanalytiske aktiviteter i Bletchley Park i Det Forenede Kongerige opfindelsen af ​​mere effektive metoder til at udføre gentagne opgaver. Colossus, verdens første fuldstændig elektroniske, digitale, programmerbare computer, blev udviklet til at hjælpe med afkodningen af ​​cifre skabt af den tyske hærs Lorenz SZ40/42-maskine.

Kryptografi er et relativt nyt felt inden for åben akademisk forskning, der først er begyndt i midten af ​​1970'erne. IBM-medarbejdere udtænkte den algoritme, der blev til Federal (dvs. USA) Data Encryption Standard; Whitfield Diffie og Martin Hellman offentliggjorde deres nøgleaftalealgoritme; og Martin Gardners Scientific American-spalte offentliggjorde RSA-algoritmen. Kryptografi er siden vokset i popularitet som en teknik til kommunikation, computernetværk og computersikkerhed generelt.

Der er dybe bånd til abstrakt matematik, eftersom adskillige moderne kryptografiske tilgange kun kan holde deres nøgler hemmelige, hvis visse matematiske problemer er uløselige, såsom heltalsfaktorisering eller diskrete logaritmeproblemer. Der er blot en håndfuld kryptosystemer, der har vist sig at være 100 % sikre. Claude Shannon beviste, at engangsblokken er en af ​​dem. Der er nogle få nøglealgoritmer, der har vist sig at være sikre under visse forhold. Manglende evne til at faktorisere ekstremt store heltal, for eksempel, er grundlaget for at tro, at RSA og andre systemer er sikre, men bevis for ubrydelighed er uopnåeligt, fordi det underliggende matematiske problem forbliver uløst. I praksis er disse meget brugt, og de fleste kompetente iagttagere mener, at de er ubrydelige i praksis. Der findes systemer, der ligner RSA, såsom et udviklet af Michael O. Rabin, der beviseligt er sikre, hvis factoring n = pq er umuligt; dog er de praktisk talt ubrugelige. Problemet med diskret logaritme er grundlaget for at tro, at nogle andre kryptosystemer er sikre, og der er lignende, mindre praktiske systemer, der beviseligt er sikre med hensyn til det diskrete logaritmeproblems løselighed eller uløselighed.

Kryptografiske algoritmer og systemdesignere skal overveje mulige fremtidige fremskridt, når de arbejder på deres ideer, ud over at være bevidste om kryptografisk historie. For eksempel, efterhånden som computerens processorkraft er blevet forbedret, er bredden af ​​brute-force-angreb vokset, og derfor er de nødvendige nøglelængder også vokset. Nogle kryptografiske systemdesignere, der udforsker post-kvantekryptografi, overvejer allerede de potentielle konsekvenser af kvanteberegning; den annoncerede nært forestående af beskedne implementeringer af disse maskiner kan gøre behovet for forebyggende forsigtighed mere end blot spekulativt.

Klassisk kryptografi i nutiden

Symmetrisk (eller privat nøgle) kryptografi er en form for kryptering, hvor afsender og modtager bruger den samme nøgle (eller, mindre almindeligt, hvor deres nøgler er forskellige, men relateret på en let beregnelig måde og opbevares hemmeligt, privat ). Indtil juni 1976 var dette den eneste form for kryptering, der var offentligt kendt.

Blok-cifre og stream-cifre bruges begge til at implementere symmetriske nøgle-cifre. En blokchiffer krypterer input i blokke af almindelig tekst i stedet for individuelle tegn, ligesom en stream-chiffer gør.

Den amerikanske regering har udpeget Data Encryption Standard (DES) og Advanced Encryption Standard (AES) som kryptografistandarder (omend DES's certificering til sidst blev trukket tilbage, når AES blev etableret). DES (især dens stadig godkendte og væsentligt mere sikre triple-DES-variation) forbliver populær på trods af dens afskrivning som en officiel standard; det bruges i en lang række applikationer, fra ATM-kryptering til e-mail-privatliv og sikker fjernadgang. Der er blevet opfundet og udgivet en række forskellige blokcifre, med varierende grader af succes. Mange, inklusive nogle designet af kvalificerede praktikere, såsom FEAL, er blevet omfattende ødelagt.

Strømchiffer genererer, i modsætning til blokcifre, en uendelig lang strøm af nøglemateriale, der er koblet med almindelig tekst bit-for-bit eller tegn-for-tegn, svarende til engangsblokken. Outputstrømmen af ​​en strømchiffer genereres fra en skjult intern tilstand, der ændres, efterhånden som cifferen fungerer. Det hemmelige nøglemateriale bruges først til at opsætte den interne tilstand. Strømchifferet RC4 er flittigt brugt. Ved at skabe blokke af en nøglestrøm (i stedet for en pseudotilfældig talgenerator) og bruge en XOR-operation til hver bit af klarteksten med hver bit af nøglestrømmen, kan blokchiffere anvendes som strømcifre.

Beskedgodkendelseskoder (MAC'er) ligner kryptografiske hash-funktioner, med den undtagelse, at en hemmelig nøgle kan bruges til at validere hashværdien ved modtagelse; denne ekstra forvikling forhindrer et angreb mod nøgne fordøjelsesalgoritmer, og anses derfor for at være umagen værd. En tredje slags kryptografisk teknik er kryptografiske hashfunktioner. De tager meddelelser af enhver længde som input og udsender en lille hash med fast længde, der for eksempel kan bruges i digitale signaturer. En angriber kan ikke finde to beskeder, der producerer den samme hash ved hjælp af gode hash-algoritmer. MD4 er en meget brugt, men nu defekt hash-funktion; MD5, en forbedret form for MD4, er ligeledes meget udbredt, men brudt i praksis. Secure Hash Algorithm-serien af ​​MD5-lignende hashalgoritmer blev udviklet af det amerikanske nationale sikkerhedsagentur: Den amerikanske standardmyndighed besluttede, at det var "forsigtigt" ud fra et sikkerhedssynspunkt at udvikle en ny standard for "betydeligt at forbedre robustheden af ​​NISTs overordnede hashalgoritme værktøjskasse." SHA-1 er meget brugt og mere sikker end MD5, men kryptoanalytikere har identificeret angreb mod det; SHA-2-familien forbedrer SHA-1, men er sårbar over for sammenstød fra 2011; og SHA-2-familien forbedrer i forhold til SHA-1, men er sårbar over for sammenstød. Som følge heraf skulle der i 2012 afholdes en hashfunktionsdesignkonkurrence for at vælge en ny amerikansk national standard, kendt som SHA-3. Konkurrencen kom til en konklusion den 2. oktober 2012, da National Institute of Standards and Technology (NIST) annoncerede Keccak som den nye SHA-3 hash-algoritme. Kryptografiske hash-funktioner, i modsætning til inverterbare blok- og stream-cifre, giver et hash-output, der ikke kan bruges til at gendanne de originale inputdata. Kryptografiske hash-funktioner bruges til at kontrollere ægtheden af ​​data erhvervet fra en utroværdig kilde eller til at tilføje en ekstra grad af beskyttelse.

Selvom en meddelelse eller et sæt meddelelser kan have en anden nøgle end andre, anvender symmetriske nøglekryptosystemer den samme nøgle til kryptering og dekryptering. Den nøglestyring, der kræves for at bruge symmetriske cifre sikkert, er en stor ulempe. Hvert enkelt par af kommunikerende parter bør ideelt set dele en anden nøgle, samt muligvis en anden chiffertekst for hver sendt chiffertekst. Antallet af nødvendige nøgler vokser i direkte forhold til antallet af netværksdeltagere, hvilket nødvendiggør komplicerede nøglehåndteringsteknikker for at holde dem alle konsistente og hemmelige.

Whitfield Diffie og Martin Hellman opfandt begrebet offentlig nøgle (også kendt som asymmetrisk nøgle) kryptografi i et banebrydende værk fra 1976, hvor to distinkte, men matematisk relaterede nøgler - en offentlig nøgle og en privat nøgle - er brugt. Selvom de er uløseligt forbundet, er et offentligt nøglesystem bygget på en sådan måde, at det er beregningsmæssigt umuligt at beregne den ene nøgle ("den private nøgle") fra den anden ("den offentlige nøgle"). Snarere produceres begge nøgler i hemmelighed, som et forbundet par. Offentlig nøglekryptering er ifølge historikeren David Kahn "den mest revolutionære nye idé på området, siden polyalfabetisk substitution opstod i renæssancen."

Den offentlige nøgle i et offentlig nøglekryptosystem kan frit transmitteres, men den koblede private nøgle skal holdes skjult. Den offentlige nøgle bruges til kryptering, hvorimod den private eller hemmelige nøgle bruges til dekryptering i et krypteringsskema med offentlig nøgle. Mens Diffie og Hellman ikke var i stand til at skabe et sådant system, demonstrerede de, at offentlig nøglekryptering var tænkelig ved at levere Diffie-Hellman nøgleudvekslingsprotokollen, en løsning, der gør det muligt for to personer i det skjulte at blive enige om en delt krypteringsnøgle. Det mest udbredte format for offentlige nøglecertifikater er defineret af X.509-standarden.

Udgivelsen af ​​Diffie og Hellman udløste en udbredt akademisk interesse for at udvikle et praktisk krypteringssystem med offentlig nøgle. Ronald Rivest, Adi Shamir og Len Adleman vandt til sidst konkurrencen i 1978, og deres svar blev kendt som RSA-algoritmen.

Ud over at være de tidligste offentligt kendte forekomster af højkvalitets public-key algoritmer, har Diffie-Hellman og RSA algoritmerne været blandt de mest brugte. Cramer-Shoup-kryptosystemet, ElGamal-kryptering og adskillige elliptiske kurvetilgange er eksempler på asymmetriske nøglealgoritmer.

GCHQ-kryptografer forudså adskillige videnskabelige fremskridt, ifølge et dokument udstedt i 1997 af Government Communications Headquarters (GCHQ), en britisk efterretningsorganisation. Ifølge legenden blev asymmetrisk nøglekryptografi opfundet af James H. Ellis omkring 1970. Clifford Cocks opfandt en løsning i 1973, der var ekstremt lig RSA med hensyn til design. Malcolm J. Williamson er krediteret for at opfinde Diffie-Hellman nøgleudveksling i 1974.

Digitale signatursystemer implementeres også ved hjælp af offentlig nøglekryptering. En digital signatur ligner en traditionel signatur, idet det er nemt for brugeren at skabe, men alligevel svært for andre at forfalske. Digitale signaturer kan også være permanent knyttet til indholdet af den kommunikation, der underskrives; det betyder, at de ikke kan 'flyttes' fra et dokument til et andet uden at blive opdaget. Der er to algoritmer i digitale signatursystemer: en til signering, som bruger en hemmelig nøgle til at behandle meddelelsen (eller en hash af meddelelsen eller begge), og en til verifikation, som bruger den matchende offentlige nøgle med meddelelsen til at validere signaturens ægthed. To af de mest brugte digitale signaturmetoder er RSA og DSA. Offentlige nøgleinfrastrukturer og mange netværkssikkerhedssystemer (f.eks. SSL/TLS, mange VPN'er) er afhængige af digitale signaturer for at fungere.

Den beregningsmæssige kompleksitet af "hårde" problemer, såsom dem, der opstår fra talteori, bruges ofte til at udvikle offentlige nøglemetoder. Heltalsfaktoriseringsproblemet er relateret til hårdheden af ​​RSA, mens det diskrete logaritmeproblem er relateret til Diffie-Hellman og DSA. Sikkerheden ved elliptisk kurvekryptografi er baseret på talteoretiske problemer med elliptisk kurve. De fleste offentlige nøglealgoritmer inkluderer operationer som modulær multiplikation og eksponentiering, som er væsentligt dyrere ved beregningen end de teknikker, der bruges i de fleste blokcifre, især med normale nøglestørrelser, på grund af vanskeligheden ved de underliggende problemer. Som følge heraf er offentlige nøglekryptosystemer ofte hybridkryptosystemer, hvor meddelelsen er krypteret med en hurtig symmetrisk nøglealgoritme af høj kvalitet, mens den relevante symmetriske nøgle sendes med beskeden, men krypteres med en offentlig nøglealgoritme. Hybride signaturskemaer, hvor en kryptografisk hash-funktion beregnes, og kun den resulterende hash er digitalt signeret, er også almindeligt brugt.

Hash-funktioner i kryptografi

Kryptografiske hash-funktioner er kryptografiske algoritmer, der producerer og bruger specifikke nøgler til at kryptere data til enten symmetrisk eller asymmetrisk kryptering, og de kan opfattes som nøgler. De tager meddelelser af enhver længde som input og udsender en lille hash med fast længde, der for eksempel kan bruges i digitale signaturer. En angriber kan ikke finde to beskeder, der producerer den samme hash ved hjælp af gode hash-algoritmer. MD4 er en meget brugt, men nu defekt hash-funktion; MD5, en forbedret form for MD4, er ligeledes meget udbredt, men brudt i praksis. Secure Hash Algorithm-serien af ​​MD5-lignende hash-algoritmer blev udviklet af US National Security Agency: Den amerikanske standardmyndighed besluttede, at det var "forsigtigt" ud fra et sikkerhedssynspunkt at udvikle en ny standard for at "betydeligt forbedre robustheden af ​​NIST's overordnede hash-algoritme værktøjskasse." SHA-1 er meget brugt og mere sikker end MD5, men kryptoanalytikere har identificeret angreb mod det; SHA-2-familien forbedrer SHA-1, men er sårbar over for sammenstød fra 2011; og SHA-2-familien forbedrer i forhold til SHA-1, men er sårbar over for sammenstød. Som følge heraf skulle der i 2012 afholdes en hashfunktionsdesignkonkurrence for at vælge en ny amerikansk national standard, kendt som SHA-3. Konkurrencen kom til en konklusion den 2. oktober 2012, da National Institute of Standards and Technology (NIST) annoncerede Keccak som den nye SHA-3 hash-algoritme. Kryptografiske hash-funktioner, i modsætning til inverterbare blok- og stream-cifre, giver et hash-output, der ikke kan bruges til at gendanne de originale inputdata. Kryptografiske hash-funktioner bruges til at kontrollere ægtheden af ​​data erhvervet fra en utroværdig kilde eller til at tilføje en ekstra grad af beskyttelse.

Kryptografiske primitiver og kryptosystemer

Meget af kryptografiens teoretiske arbejde fokuserer på kryptografiske primitiver – algoritmer med grundlæggende kryptografiske egenskaber – og hvordan de forholder sig til andre kryptografiske udfordringer. Disse grundlæggende primitiver bruges derefter til at skabe mere komplekse kryptografiske værktøjer. Disse primitiver giver grundlæggende kvaliteter, der bruges til at skabe mere komplekse værktøjer kendt som kryptosystemer eller kryptografiske protokoller, der sikrer en eller flere sikkerhedsegenskaber på højt niveau. Grænsen mellem kryptografiske primitiver og kryptosystemer er på den anden side vilkårlig; RSA-algoritmen, for eksempel, betragtes nogle gange som et kryptosystem og nogle gange et primitivt. Pseudorandomfunktioner, envejsfunktioner og andre kryptografiske primitiver er almindelige eksempler.

Et kryptografisk system, eller kryptosystem, skabes ved at kombinere en eller flere kryptografiske primitiver for at skabe en mere kompliceret algoritme. Kryptosystemer (f.eks. El-Gamal-kryptering) er beregnet til at give specifik funktionalitet (f.eks. offentlig nøglekryptering) og samtidig sikre visse sikkerhedskvaliteter (f.eks. tilfældig orakelmodel valgt-klartekst-angreb CPA-sikkerhed). For at understøtte systemets sikkerhedskvaliteter udnytter kryptosystemer egenskaberne fra de underliggende kryptografiske primitiver. Et sofistikeret kryptosystem kan genereres ud fra en kombination af adskillige mere rudimentære kryptosystemer, da sondringen mellem primitiver og kryptosystemer er noget vilkårlig. Under mange omstændigheder omfatter kryptosystemets struktur frem og tilbage kommunikation mellem to eller flere parter i rummet (f.eks. mellem afsender og modtager af en sikker meddelelse) eller over tid (f.eks. mellem afsender og modtager af en sikker meddelelse) (f.eks. kryptografisk beskyttede sikkerhedskopieringsdata).

For at gøre dig nærmere bekendt med certificeringspensum kan du udvide og analysere nedenstående tabel.

EITC/IS/ACC Advanced Classical Cryptography Certification Curriculum refererer til didaktisk materiale med åben adgang i en videoform. Læreprocessen er opdelt i en trin-for-trin struktur (programmer -> lektioner -> emner), der dækker relevante læseplansdele. Der tilbydes også ubegrænset rådgivning med domæneeksperter.
Tjek for detaljer om certificeringsproceduren Sådan fungerer det.

Læs mere
Ingen kommentarer

Grundlæggende om EITC/IS/CCF klassisk kryptografi

Mandag, 03 May 2021 by admin

EITC/IS/CCF Classical Cryptography Fundamentals er det europæiske IT-certificeringsprogram om teoretiske og praktiske aspekter af klassisk kryptografi, herunder både private-key og public-key kryptografi, med en introduktion til praktiske chiffer, der er meget udbredt på internettet, som f.eks. RSA.

Læreplanen for EITC/IS/CCF Classical Cryptography Fundamentals dækker introduktion til privat-nøgle-kryptering, modulær aritmetik og historiske ciphers, stream ciphers, tilfældige tal, One-Time Pad (OTP) ubetinget sikre cipher (under forudsætning af at give en løsning til nøgledistributionsproblemet, som f.eks. gives af Quantum Key Distribution, QKD), lineære feedback-skiftregistre, Data Encryption Standard (DES-kryptering, inklusive kryptering, nøgleskema og dekryptering), Advanced Encryption Standard (AES, introduktion af Galois-felter) baseret kryptografi), anvendelser af blokcifre (inklusive funktionsmåder), overvejelse af multiple kryptering og brute-force-angreb, introduktion til public-key kryptografi, der dækker talteori, euklidisk algoritme, Eulers Phi-funktion og Eulers sætning, samt introduktion til RSA-kryptosystemet og effektiv eksponentiering inden for følgende struktur, der omfatter omfattende videodidaktik indhold som reference for denne EITC-certificering.

Kryptografi refererer til måder til sikker kommunikation i nærvær af en modstander. Kryptografi er i bredere forstand processen med at skabe og analysere protokoller, der forhindrer tredjeparter eller offentligheden i at få adgang til private (krypterede) beskeder. Moderne klassisk kryptografi er baseret på flere hovedtræk ved informationssikkerhed, såsom datafortrolighed, dataintegritet, autentificering og ikke-afvisning. I modsætning til kvantekryptografi, som er baseret på radikalt forskellige kvantefysiske regler, der karakteriserer naturen, refererer klassisk kryptografi til kryptografi baseret på klassiske fysiklove. Områderne matematik, datalogi, elektroteknik, kommunikationsvidenskab og fysik mødes alle i klassisk kryptografi. Elektronisk handel, chip-baserede betalingskort, digitale valutaer, computeradgangskoder og militær kommunikation er alle eksempler på kryptografiapplikationer.

Før den nuværende æra var kryptografi næsten synonymt med kryptering, hvilket gjorde information fra læsbar til uforståelig nonsens. For at forhindre angribere i at få adgang til en krypteret besked, deler afsenderen kun afkodningsprocessen med de tilsigtede modtagere. Navnene Alice ("A") for afsenderen, Bob ("B") for den påtænkte modtager og Eve ("aflyttet") for modstanderen bruges ofte i kryptografilitteratur.

Kryptografimetoder er blevet mere og mere komplekse, og dens anvendelser er blevet mere diversificerede, siden udviklingen af ​​rotor-chiffermaskiner i Første Verdenskrig og introduktionen af ​​computere i Anden Verdenskrig.

Moderne kryptografi er stærkt afhængig af matematisk teori og datalogi praksis; kryptografiske metoder er bygget op omkring beregningshårdhedsantagelser, hvilket gør dem vanskelige for enhver modstander at bryde i praksis. Selvom det teoretisk er muligt at bryde ind i et veldesignet system, er det umuligt at gøre det i praksis. Sådanne ordninger omtales som "beregningssikre", hvis de er tilstrækkeligt konstrueret; ikke desto mindre kræver teoretiske gennembrud (f.eks. forbedringer i heltalsfaktoriseringsmetoder) og hurtigere computerteknologi konstant revurdering og om nødvendigt tilpasning af disse designs. Der er informationsteoretisk sikre systemer, såsom engangspuden, der kan bevises at være ubrydelige selv med uendelig computerkraft, men de er betydeligt sværere at anvende i praksis end de bedste teoretisk nedbrydelige, men beregningssikre ordninger.

I informationsalderen har fremskridtet inden for kryptografisk teknologi frembragt en række juridiske udfordringer. Mange nationer har klassificeret kryptografi som et våben, hvilket begrænser eller forbyder dets brug og eksport på grund af dets potentiale for spionage og oprør. Efterforskere kan tvinge til afgivelse af krypteringsnøgler til dokumenter, der er relevante for en undersøgelse, nogle steder, hvor kryptografi er lovligt. I tilfælde af digitale medier spiller kryptografi også en nøglerolle i forvaltning af digitale rettigheder og konflikter om krænkelse af ophavsret.

Udtrykket "kryptograf" (i modsætning til "kryptogram") blev første gang brugt i det nittende århundrede, i Edgar Allan Poes novelle "The Gold-Bug."

Indtil for nylig refererede kryptografi næsten udelukkende til "kryptering", som er handlingen med at omdanne almindelige data (kendt som almindelig tekst) til et ulæseligt format (kaldet chiffertekst). Dekryptering er det modsatte af kryptering, dvs. at gå fra uforståelig chiffertekst til almindelig tekst. En cipher (eller cypher) er et sæt af teknikker, der udfører kryptering og dekryptering i omvendt rækkefølge. Algoritmen og i hvert tilfælde en "nøgle" er ansvarlige for chifferens detaljerede udførelse. Nøglen er en hemmelighed (helst kendt kun af kommunikanterne), som bruges til at dekryptere chifferteksten. Det er almindeligvis en streng af tegn (ideelt kort, så det kan huskes af brugeren). Et "kryptosystem" er den ordnede samling af elementer af endelige potentielle klartekster, cyphertekster, nøgler og de krypterings- og dekrypteringsprocedurer, der svarer til hver nøgle i formelle matematiske termer. Nøgler er afgørende både formelt og praktisk, fordi cifre med faste nøgler nemt kan brydes ved kun at bruge cipherens information, hvilket gør dem ubrugelige (eller endda kontraproduktive) til de fleste formål.

Historisk set blev chiffer ofte brugt uden yderligere procedurer såsom autentificering eller integritetstjek for kryptering eller dekryptering. Kryptosystemer er opdelt i to kategorier: symmetriske og asymmetriske. Den samme nøgle (den hemmelige nøgle) bruges til at kryptere og dekryptere en besked i symmetriske systemer, som var de eneste kendte indtil 1970'erne. Fordi symmetriske systemer bruger kortere nøglelængder, er datamanipulation i symmetriske systemer hurtigere end i asymmetriske systemer. Asymmetriske systemer krypterer en kommunikation med en "offentlig nøgle" og dekrypterer den ved hjælp af en lignende "privat nøgle". Brugen af ​​asymmetriske systemer forbedrer kommunikationssikkerheden på grund af vanskeligheden ved at bestemme forholdet mellem de to nøgler. RSA (Rivest–Shamir–Adleman) og ECC er to eksempler på asymmetriske systemer (Elliptic Curve Cryptography). Den meget brugte AES (Advanced Encryption Standard), som afløste den tidligere DES, er et eksempel på en symmetrisk algoritme af høj kvalitet (Data Encryption Standard). De forskellige teknikker til sammenfiltring af børns sprog, såsom griselatin eller anden overhøjde, og faktisk alle kryptografiske skemaer, uanset hvor alvorligt de er, fra enhver kilde forud for introduktionen af ​​engangsblokken i begyndelsen af ​​det tyvende århundrede, er eksempler på lav kvalitet symmetriske algoritmer.

Udtrykket "kode" bruges ofte i daglig tale til at henvise til enhver teknik til kryptering eller skjulning af beskeder. I kryptografi refererer kode imidlertid til, at et kodeord erstattes af en enhed af almindelig tekst (dvs. et meningsfuldt ord eller en sætning) (f.eks. erstatter "wallaby" "angreb ved daggry"). I modsætning hertil skabes en cyphertext ved at ændre eller erstatte et element under et sådant niveau (f.eks. et bogstav, en stavelse eller et par bogstaver) for at danne en cyphertext.

Krypteringsanalyse er undersøgelsen af ​​måder at dekryptere krypterede data på uden at have adgang til den nødvendige nøgle for at gøre det; med andre ord er det studiet af, hvordan man "bryder" krypteringssystemer eller deres implementeringer.

På engelsk bruger nogle mennesker i flæng udtrykkene "kryptografi" og "kryptologi", mens andre (herunder amerikansk militær praksis generelt) bruger "kryptografi" til at henvise til brug og praksis af kryptografiske teknikker og "kryptologi" for at henvise til det kombinerede studie af kryptografi og kryptoanalyse. Engelsk er mere tilpasningsdygtig end en række andre sprog, hvor "kryptologi" (som praktiseret af kryptologer) altid bruges i anden betydning. Steganografi er nogle gange inkluderet i kryptologi, ifølge RFC 2828.

Kryptolingvistik er studiet af sprogegenskaber, der har en vis relevans i kryptografi eller kryptologi (for eksempel frekvensstatistik, bogstavkombinationer, universelle mønstre og så videre).

Kryptografi og kryptoanalyse har en lang historie.
Historien om kryptografi er hovedartiklen.
Før den moderne æra var kryptografi primært beskæftiget med meddelelsesfortrolighed (dvs. kryptering) - konvertering af meddelelser fra en forståelig til en uforståelig form og igen, hvilket gør dem ulæselige af opfangere eller aflyttere uden hemmelig viden (nemlig nøglen til dekryptering). af denne besked). Kryptering blev designet til at holde samtaler mellem spioner, militærledere og diplomater private. I de seneste årtier er disciplinen vokset til blandt andet at inkorporere teknikker som kontrol af meddelelsesintegritet, autentificering af afsender/modtagers identitet, digitale signaturer, interaktive beviser og sikker beregning.

De to mest almindelige klassiske chiffertyper er transponeringscifre, som systematisk erstatter bogstaver eller grupper af bogstaver med andre bogstaver eller grupper af bogstaver (f.eks. bliver 'hej verden' til 'ehlol owrdl' i et trivielt simpelt omarrangeringsskema), og substitutionscifre, som systematisk erstatter bogstaver eller grupper af bogstaver med andre bogstaver eller grupper af bogstaver (f.eks. bliver 'flyve med det samme' til 'gmz bu Simple versioner af begge har aldrig givet meget privatliv fra snedige modstandere. Cæsar-cifferet var et tidligt substitutionsciffer, hvori hvert bogstav i klarteksten blev erstattet af et bogstav et vist antal positioner nede i alfabetet. Ifølge Suetonius brugte Julius Cæsar det med et tremandsskifte til at kommunikere med sine generaler. Et tidligt hebraisk ciffer, Atbash, er et eksempel. Den ældste kendte brug af kryptografi er en udskåret chiffertekst på sten i Egypten (ca. 1900 f.v.t.), men det er muligt, at dette blev gjort til glæde for læsekyndige tilskuere snarere end for at skjule information.

Krypter er rapporteret at have været kendt af de klassiske grækere (f.eks. den scytale transposition-chiffer, der hævdes at være blevet brugt af det spartanske militær). Steganografi (praksis med at skjule selv tilstedeværelsen af ​​en kommunikation for at holde den privat) blev også opfundet i oldtiden. En sætning tatoveret på en slaves barberede hoved og gemt under det gengroede hår, ifølge Herodot. Brugen af ​​usynlig blæk, mikroprikker og digitale vandmærker til at skjule information er mere aktuelle forekomster af steganografi.

Kautiliyam og Mulavediya er to typer cifre nævnt i Indiens 2000 år gamle Kamasutra af Vtsyyana. Chifferbogstaverstatningerne i Kautiliyam er baseret på fonetiske forhold, såsom at vokaler bliver konsonanter. Chifferalfabetet i Mulavediya består af matchende bogstaver og anvender gensidige bogstaver.

Ifølge den muslimske lærde Ibn al-Nadim havde Sassanid Persien to hemmelige skrifter: h-dabrya (bogstaveligt talt "Kongens skrift"), som blev brugt til officiel korrespondance, og rz-saharya, som blev brugt til at udveksle hemmelige beskeder med andre lande.

I sin bog The Codebreakers skriver David Kahn, at nutidig kryptologi begyndte med araberne, som var de første til omhyggeligt at dokumentere kryptoanalytiske procedurer. The Book of Cryptographic Messages er skrevet af Al-Khalil (717-786), og den indeholder den tidligste brug af permutationer og kombinationer til at liste alle tænkelige arabiske ord med og uden vokaler.

Chiffertekster genereret af en klassisk chiffer (såvel som nogle moderne chiffer) afslører statistisk information om almindelig tekst, som kan bruges til at bryde chifferen. Næsten alle sådanne cifre kunne brydes af en intelligent angriber efter opdagelsen af ​​frekvensanalyse, muligvis af den arabiske matematiker og polymat Al-Kindi (også kendt som Alkindus) i det 9. århundrede. Klassiske cifre er stadig populære i dag, omend i høj grad som puslespil (se kryptogram). Risalah fi Istikhraj al-Mu'amma (Manuskript til dechifrering af kryptografiske meddelelser) blev skrevet af Al-Kindi og dokumenterede den første kendte brug af frekvensanalyse-krypteringsteknikker.

Nogle udvidede historiekrypteringsmetoder, såsom homofonisk chiffer, der har tendens til at udjævne frekvensfordelingen, drager muligvis ikke fordel af sprogbogstavfrekvenser. Sprogbogstavsgruppe (eller n-gram) frekvenser kan give et angreb for disse cifre.

Indtil opdagelsen af ​​den polyalfabetiske chiffer, især af Leon Battista Alberti omkring 1467, var praktisk talt alle chiffer tilgængelige for kryptoanalyse ved hjælp af frekvensanalysemetoden, selvom der er nogle beviser på, at det allerede var kendt af Al-Kindi. Alberti kom op med ideen om at bruge separate cifre (eller substitutionsalfabeter) til forskellige dele af en kommunikation (måske for hvert efterfølgende bogstav i almindelig tekst ved grænsen). Han skabte også, hvad der menes at være den første automatiske krypteringsenhed, et hjul, der udførte en del af hans design. Kryptering i Vigenère-chifferet, en polyalfabetisk cipher, styres af et nøgleord, der styrer bogstaverstatning baseret på hvilket bogstav i nøgleordet, der bruges. Charles Babbage demonstrerede, at Vigenère-chifferet var sårbart over for Kasiski-analyse i midten af ​​det nittende århundrede, men Friedrich Kasiski offentliggjorde sine resultater ti år senere.

På trods af det faktum, at frekvensanalyse er en kraftfuld og bred teknik mod mange cifre, er kryptering forblevet effektiv i praksis, fordi mange kommende kryptoanalytikere er uvidende om teknikken. At bryde en besked uden at bruge frekvensanalyse krævede viden om den anvendte chiffer og muligvis den involverede nøgle, hvilket gjorde spionage, bestikkelse, indbrud, frafald og andre kryptoanalytisk uinformerede taktikker mere tiltrækkende. Hemmeligheden bag en chifferalgoritme blev i det 19. århundrede i sidste ende anerkendt som hverken en rimelig eller gennemførlig forsikring om meddelelsessikkerhed; faktisk bør enhver passende kryptografisk ordning (inklusive ciphers) forblive sikker, selvom modstanderen fuldt ud forstår selve cipher-algoritmen. Nøglens sikkerhed bør være tilstrækkelig til, at en god chiffer kan bevare fortroligheden i tilfælde af et overfald. Auguste Kerckhoffs udtalte første gang dette grundlæggende princip i 1883, og det er kendt som Kerckhoffs princip; alternativt, og mere ligeud, gentog Claude Shannon, opfinderen af ​​informationsteorien og de grundlæggende principper for teoretisk kryptografi, det som Shannons Maxim - 'fjenden kender systemet'.

For at hjælpe med ciphers er mange fysiske gadgets og assistance blevet brugt. Det antikke Grækenlands scytale, en stang, der angiveligt blev brugt af spartanerne som et værktøj til transponering af chiffer, kan have været en af ​​de første. Andre hjælpemidler blev udtænkt i middelalderen, såsom chiffergitteret, som også blev brugt til steganografi. Med udviklingen af ​​polyalfabetiske cifre blev mere sofistikerede hjælpemidler såsom Albertis ciffer-skive, Johannes Trithemius' tabula recta-skema og Thomas Jeffersons hjulciffer tilgængelige (ikke offentligt kendt og genopfundet uafhængigt af Bazeries omkring 1900). Mange mekaniske krypterings-/dekrypteringssystemer blev udtænkt og patenteret i begyndelsen af ​​det tyvende århundrede, inklusive rotormaskiner, som var berømt ansat af den tyske regering og militær fra slutningen af ​​1920'erne til Anden Verdenskrig. Efter WWI resulterede chifferne implementeret af forekomster af højere kvalitet af disse maskindesigns i en betydelig stigning i kryptoanalytiske vanskeligheder.

Kryptografi beskæftigede sig primært med sproglige og leksikografiske mønstre før det tidlige tyvende århundrede. Siden da har fokus udviklet sig, og kryptografi omfatter nu aspekter af informationsteori, beregningskompleksitet, statistik, kombinatorik, abstrakt algebra, talteori og finit matematik generelt. Kryptografi er en type teknik, men den er unik, idet den beskæftiger sig med aktiv, intelligent og fjendtlig modstand, hvorimod andre typer teknik (såsom civil- eller kemiteknik) blot skal beskæftige sig med naturlige kræfter, der er neutrale. Sammenhængen mellem kryptografiske vanskeligheder og kvantefysik bliver også undersøgt.

Udviklingen af ​​digitale computere og elektronik hjalp kryptering ved at give mulighed for at skabe betydeligt mere sofistikerede cifre. Desuden, i modsætning til traditionelle ciphers, som udelukkende krypterede skriftsprogstekster, tillod computere kryptering af enhver type data, der kunne repræsenteres i ethvert binært format; dette var nyt og afgørende. I både chifferdesign og kryptoanalyse har computere så fortrængt sprogkryptografi. I modsætning til klassiske og mekaniske metoder, som primært manipulerer traditionelle tegn (dvs. bogstaver og tal) direkte, opererer mange computercifre på binære bitsekvenser (nogle gange i grupper eller blokke). Computere har på den anden side hjulpet kryptoanalysen, som delvist har kompenseret for øget krypteringskompleksitet. På trods af dette er gode moderne cifre forblevet foran kryptoanalysen; det er ofte tilfældet, at brugen af ​​en god chiffer er meget effektiv (dvs. hurtig og kræver få ressourcer, såsom hukommelse eller CPU-kapacitet), hvorimod at bryde den kræver en indsats, der er mange størrelsesordener større og langt større end det, der kræves for nogen klassisk chiffer, hvilket effektivt gør krypteringsanalyse umulig.

Moderne kryptografi får sin debut.
De nye mekaniske enheders kryptoanalyse viste sig at være udfordrende og tidskrævende. Under Anden Verdenskrig fremmede kryptoanalytiske aktiviteter i Bletchley Park i Det Forenede Kongerige opfindelsen af ​​mere effektive metoder til at udføre gentagne opgaver. Colossus, verdens første fuldstændig elektroniske, digitale, programmerbare computer, blev udviklet til at hjælpe med afkodningen af ​​cifre skabt af den tyske hærs Lorenz SZ40/42-maskine.

Kryptografi er et relativt nyt felt inden for åben akademisk forskning, der først er begyndt i midten af ​​1970'erne. IBM-medarbejdere udtænkte den algoritme, der blev til Federal (dvs. USA) Data Encryption Standard; Whitfield Diffie og Martin Hellman offentliggjorde deres nøgleaftalealgoritme; og Martin Gardners Scientific American-spalte offentliggjorde RSA-algoritmen. Kryptografi er siden vokset i popularitet som en teknik til kommunikation, computernetværk og computersikkerhed generelt.

Der er dybe bånd til abstrakt matematik, eftersom adskillige moderne kryptografiske tilgange kun kan holde deres nøgler hemmelige, hvis visse matematiske problemer er uløselige, såsom heltalsfaktorisering eller diskrete logaritmeproblemer. Der er blot en håndfuld kryptosystemer, der har vist sig at være 100 % sikre. Claude Shannon beviste, at engangsblokken er en af ​​dem. Der er nogle få nøglealgoritmer, der har vist sig at være sikre under visse forhold. Manglende evne til at faktorisere ekstremt store heltal, for eksempel, er grundlaget for at tro, at RSA og andre systemer er sikre, men bevis for ubrydelighed er uopnåeligt, fordi det underliggende matematiske problem forbliver uløst. I praksis er disse meget brugt, og de fleste kompetente iagttagere mener, at de er ubrydelige i praksis. Der findes systemer, der ligner RSA, såsom et udviklet af Michael O. Rabin, der beviseligt er sikre, hvis factoring n = pq er umuligt; dog er de praktisk talt ubrugelige. Problemet med diskret logaritme er grundlaget for at tro, at nogle andre kryptosystemer er sikre, og der er lignende, mindre praktiske systemer, der beviseligt er sikre med hensyn til det diskrete logaritmeproblems løselighed eller uløselighed.

Kryptografiske algoritmer og systemdesignere skal overveje mulige fremtidige fremskridt, når de arbejder på deres ideer, ud over at være bevidste om kryptografisk historie. For eksempel, efterhånden som computerens processorkraft er blevet forbedret, er bredden af ​​brute-force-angreb vokset, og derfor er de nødvendige nøglelængder også vokset. Nogle kryptografiske systemdesignere, der udforsker post-kvantekryptografi, overvejer allerede de potentielle konsekvenser af kvanteberegning; den annoncerede nært forestående af beskedne implementeringer af disse maskiner kan gøre behovet for forebyggende forsigtighed mere end blot spekulativt.

Klassisk kryptografi i nutiden

Symmetrisk (eller privat nøgle) kryptografi er en form for kryptering, hvor afsender og modtager bruger den samme nøgle (eller, mindre almindeligt, hvor deres nøgler er forskellige, men relateret på en let beregnelig måde og opbevares hemmeligt, privat ). Indtil juni 1976 var dette den eneste form for kryptering, der var offentligt kendt.

Blok-cifre og stream-cifre bruges begge til at implementere symmetriske nøgle-cifre. En blokchiffer krypterer input i blokke af almindelig tekst i stedet for individuelle tegn, ligesom en stream-chiffer gør.

Den amerikanske regering har udpeget Data Encryption Standard (DES) og Advanced Encryption Standard (AES) som kryptografistandarder (omend DES's certificering til sidst blev trukket tilbage, når AES blev etableret). DES (især dens stadig godkendte og væsentligt mere sikre triple-DES-variation) forbliver populær på trods af dens afskrivning som en officiel standard; det bruges i en lang række applikationer, fra ATM-kryptering til e-mail-privatliv og sikker fjernadgang. Der er blevet opfundet og udgivet en række forskellige blokcifre, med varierende grader af succes. Mange, inklusive nogle designet af kvalificerede praktikere, såsom FEAL, er blevet omfattende ødelagt.

Strømchiffer genererer, i modsætning til blokcifre, en uendelig lang strøm af nøglemateriale, der er koblet med almindelig tekst bit-for-bit eller tegn-for-tegn, svarende til engangsblokken. Outputstrømmen af ​​en strømchiffer genereres fra en skjult intern tilstand, der ændres, efterhånden som cifferen fungerer. Det hemmelige nøglemateriale bruges først til at opsætte den interne tilstand. Strømchifferet RC4 er flittigt brugt. Ved at skabe blokke af en nøglestrøm (i stedet for en pseudotilfældig talgenerator) og bruge en XOR-operation til hver bit af klarteksten med hver bit af nøglestrømmen, kan blokchiffere anvendes som strømcifre.

Beskedgodkendelseskoder (MAC'er) ligner kryptografiske hash-funktioner, med den undtagelse, at en hemmelig nøgle kan bruges til at validere hashværdien ved modtagelse; denne ekstra forvikling forhindrer et angreb mod nøgne fordøjelsesalgoritmer, og anses derfor for at være umagen værd. En tredje slags kryptografisk teknik er kryptografiske hashfunktioner. De tager meddelelser af enhver længde som input og udsender en lille hash med fast længde, der for eksempel kan bruges i digitale signaturer. En angriber kan ikke finde to beskeder, der producerer den samme hash ved hjælp af gode hash-algoritmer. MD4 er en meget brugt, men nu defekt hash-funktion; MD5, en forbedret form for MD4, er ligeledes meget udbredt, men brudt i praksis. Secure Hash Algorithm-serien af ​​MD5-lignende hashalgoritmer blev udviklet af det amerikanske nationale sikkerhedsagentur: Den amerikanske standardmyndighed besluttede, at det var "forsigtigt" ud fra et sikkerhedssynspunkt at udvikle en ny standard for "betydeligt at forbedre robustheden af ​​NISTs overordnede hashalgoritme værktøjskasse." SHA-1 er meget brugt og mere sikker end MD5, men kryptoanalytikere har identificeret angreb mod det; SHA-2-familien forbedrer SHA-1, men er sårbar over for sammenstød fra 2011; og SHA-2-familien forbedrer i forhold til SHA-1, men er sårbar over for sammenstød. Som følge heraf skulle der i 2012 afholdes en hashfunktionsdesignkonkurrence for at vælge en ny amerikansk national standard, kendt som SHA-3. Konkurrencen kom til en konklusion den 2. oktober 2012, da National Institute of Standards and Technology (NIST) annoncerede Keccak som den nye SHA-3 hash-algoritme. Kryptografiske hash-funktioner, i modsætning til inverterbare blok- og stream-cifre, giver et hash-output, der ikke kan bruges til at gendanne de originale inputdata. Kryptografiske hash-funktioner bruges til at kontrollere ægtheden af ​​data erhvervet fra en utroværdig kilde eller til at tilføje en ekstra grad af beskyttelse.

Selvom en meddelelse eller et sæt meddelelser kan have en anden nøgle end andre, anvender symmetriske nøglekryptosystemer den samme nøgle til kryptering og dekryptering. Den nøglestyring, der kræves for at bruge symmetriske cifre sikkert, er en stor ulempe. Hvert enkelt par af kommunikerende parter bør ideelt set dele en anden nøgle, samt muligvis en anden chiffertekst for hver sendt chiffertekst. Antallet af nødvendige nøgler vokser i direkte forhold til antallet af netværksdeltagere, hvilket nødvendiggør komplicerede nøglehåndteringsteknikker for at holde dem alle konsistente og hemmelige.

Whitfield Diffie og Martin Hellman opfandt begrebet offentlig nøgle (også kendt som asymmetrisk nøgle) kryptografi i et banebrydende værk fra 1976, hvor to distinkte, men matematisk relaterede nøgler - en offentlig nøgle og en privat nøgle - er brugt. Selvom de er uløseligt forbundet, er et offentligt nøglesystem bygget på en sådan måde, at det er beregningsmæssigt umuligt at beregne den ene nøgle ("den private nøgle") fra den anden ("den offentlige nøgle"). Snarere produceres begge nøgler i hemmelighed, som et forbundet par. Offentlig nøglekryptering er ifølge historikeren David Kahn "den mest revolutionære nye idé på området, siden polyalfabetisk substitution opstod i renæssancen."

Den offentlige nøgle i et offentlig nøglekryptosystem kan frit transmitteres, men den koblede private nøgle skal holdes skjult. Den offentlige nøgle bruges til kryptering, hvorimod den private eller hemmelige nøgle bruges til dekryptering i et krypteringsskema med offentlig nøgle. Mens Diffie og Hellman ikke var i stand til at skabe et sådant system, demonstrerede de, at offentlig nøglekryptering var tænkelig ved at levere Diffie-Hellman nøgleudvekslingsprotokollen, en løsning, der gør det muligt for to personer i det skjulte at blive enige om en delt krypteringsnøgle. Det mest udbredte format for offentlige nøglecertifikater er defineret af X.509-standarden.

Udgivelsen af ​​Diffie og Hellman udløste en udbredt akademisk interesse for at udvikle et praktisk krypteringssystem med offentlig nøgle. Ronald Rivest, Adi Shamir og Len Adleman vandt til sidst konkurrencen i 1978, og deres svar blev kendt som RSA-algoritmen.

Ud over at være de tidligste offentligt kendte forekomster af højkvalitets public-key algoritmer, har Diffie-Hellman og RSA algoritmerne været blandt de mest brugte. Cramer-Shoup-kryptosystemet, ElGamal-kryptering og adskillige elliptiske kurvetilgange er eksempler på asymmetriske nøglealgoritmer.

GCHQ-kryptografer forudså adskillige videnskabelige fremskridt, ifølge et dokument udstedt i 1997 af Government Communications Headquarters (GCHQ), en britisk efterretningsorganisation. Ifølge legenden blev asymmetrisk nøglekryptografi opfundet af James H. Ellis omkring 1970. Clifford Cocks opfandt en løsning i 1973, der var ekstremt lig RSA med hensyn til design. Malcolm J. Williamson er krediteret for at opfinde Diffie-Hellman nøgleudveksling i 1974.

Digitale signatursystemer implementeres også ved hjælp af offentlig nøglekryptering. En digital signatur ligner en traditionel signatur, idet det er nemt for brugeren at skabe, men alligevel svært for andre at forfalske. Digitale signaturer kan også være permanent knyttet til indholdet af den kommunikation, der underskrives; det betyder, at de ikke kan 'flyttes' fra et dokument til et andet uden at blive opdaget. Der er to algoritmer i digitale signatursystemer: en til signering, som bruger en hemmelig nøgle til at behandle meddelelsen (eller en hash af meddelelsen eller begge), og en til verifikation, som bruger den matchende offentlige nøgle med meddelelsen til at validere signaturens ægthed. To af de mest brugte digitale signaturmetoder er RSA og DSA. Offentlige nøgleinfrastrukturer og mange netværkssikkerhedssystemer (f.eks. SSL/TLS, mange VPN'er) er afhængige af digitale signaturer for at fungere.

Den beregningsmæssige kompleksitet af "hårde" problemer, såsom dem, der opstår fra talteori, bruges ofte til at udvikle offentlige nøglemetoder. Heltalsfaktoriseringsproblemet er relateret til hårdheden af ​​RSA, mens det diskrete logaritmeproblem er relateret til Diffie-Hellman og DSA. Sikkerheden ved elliptisk kurvekryptografi er baseret på talteoretiske problemer med elliptisk kurve. De fleste offentlige nøglealgoritmer inkluderer operationer som modulær multiplikation og eksponentiering, som er væsentligt dyrere ved beregningen end de teknikker, der bruges i de fleste blokcifre, især med normale nøglestørrelser, på grund af vanskeligheden ved de underliggende problemer. Som følge heraf er offentlige nøglekryptosystemer ofte hybridkryptosystemer, hvor meddelelsen er krypteret med en hurtig symmetrisk nøglealgoritme af høj kvalitet, mens den relevante symmetriske nøgle sendes med beskeden, men krypteres med en offentlig nøglealgoritme. Hybride signaturskemaer, hvor en kryptografisk hash-funktion beregnes, og kun den resulterende hash er digitalt signeret, er også almindeligt brugt.

Hash-funktioner i kryptografi

Kryptografiske hash-funktioner er kryptografiske algoritmer, der producerer og bruger specifikke nøgler til at kryptere data til enten symmetrisk eller asymmetrisk kryptering, og de kan opfattes som nøgler. De tager meddelelser af enhver længde som input og udsender en lille hash med fast længde, der for eksempel kan bruges i digitale signaturer. En angriber kan ikke finde to beskeder, der producerer den samme hash ved hjælp af gode hash-algoritmer. MD4 er en meget brugt, men nu defekt hash-funktion; MD5, en forbedret form for MD4, er ligeledes meget udbredt, men brudt i praksis. Secure Hash Algorithm-serien af ​​MD5-lignende hash-algoritmer blev udviklet af US National Security Agency: Den amerikanske standardmyndighed besluttede, at det var "forsigtigt" ud fra et sikkerhedssynspunkt at udvikle en ny standard for at "betydeligt forbedre robustheden af ​​NIST's overordnede hash-algoritme værktøjskasse." SHA-1 er meget brugt og mere sikker end MD5, men kryptoanalytikere har identificeret angreb mod det; SHA-2-familien forbedrer SHA-1, men er sårbar over for sammenstød fra 2011; og SHA-2-familien forbedrer i forhold til SHA-1, men er sårbar over for sammenstød. Som følge heraf skulle der i 2012 afholdes en hashfunktionsdesignkonkurrence for at vælge en ny amerikansk national standard, kendt som SHA-3. Konkurrencen kom til en konklusion den 2. oktober 2012, da National Institute of Standards and Technology (NIST) annoncerede Keccak som den nye SHA-3 hash-algoritme. Kryptografiske hash-funktioner, i modsætning til inverterbare blok- og stream-cifre, giver et hash-output, der ikke kan bruges til at gendanne de originale inputdata. Kryptografiske hash-funktioner bruges til at kontrollere ægtheden af ​​data erhvervet fra en utroværdig kilde eller til at tilføje en ekstra grad af beskyttelse.

Kryptografiske primitiver og kryptosystemer

Meget af kryptografiens teoretiske arbejde fokuserer på kryptografiske primitiver – algoritmer med grundlæggende kryptografiske egenskaber – og hvordan de forholder sig til andre kryptografiske udfordringer. Disse grundlæggende primitiver bruges derefter til at skabe mere komplekse kryptografiske værktøjer. Disse primitiver giver grundlæggende kvaliteter, der bruges til at skabe mere komplekse værktøjer kendt som kryptosystemer eller kryptografiske protokoller, der sikrer en eller flere sikkerhedsegenskaber på højt niveau. Grænsen mellem kryptografiske primitiver og kryptosystemer er på den anden side vilkårlig; RSA-algoritmen, for eksempel, betragtes nogle gange som et kryptosystem og nogle gange et primitivt. Pseudorandomfunktioner, envejsfunktioner og andre kryptografiske primitiver er almindelige eksempler.

Et kryptografisk system, eller kryptosystem, skabes ved at kombinere en eller flere kryptografiske primitiver for at skabe en mere kompliceret algoritme. Kryptosystemer (f.eks. El-Gamal-kryptering) er beregnet til at give specifik funktionalitet (f.eks. offentlig nøglekryptering) og samtidig sikre visse sikkerhedskvaliteter (f.eks. tilfældig orakelmodel valgt-klartekst-angreb CPA-sikkerhed). For at understøtte systemets sikkerhedskvaliteter udnytter kryptosystemer egenskaberne fra de underliggende kryptografiske primitiver. Et sofistikeret kryptosystem kan genereres ud fra en kombination af adskillige mere rudimentære kryptosystemer, da sondringen mellem primitiver og kryptosystemer er noget vilkårlig. Under mange omstændigheder omfatter kryptosystemets struktur frem og tilbage kommunikation mellem to eller flere parter i rummet (f.eks. mellem afsender og modtager af en sikker meddelelse) eller over tid (f.eks. mellem afsender og modtager af en sikker meddelelse) (f.eks. kryptografisk beskyttede sikkerhedskopieringsdata).

For at gøre dig nærmere bekendt med certificeringspensum kan du udvide og analysere nedenstående tabel.

EITC/IS/CCF Classical Cryptography Fundamentals Certification Curriculum refererer til didaktisk materiale med åben adgang i en videoform. Læreprocessen er opdelt i en trin-for-trin struktur (programmer -> lektioner -> emner), der dækker relevante læseplansdele. Der tilbydes også ubegrænset rådgivning med domæneeksperter.
Tjek for detaljer om certificeringsproceduren Sådan fungerer det.

Læs mere
Ingen kommentarer

EITC/QI/QIF Quantum Information Fundamentals

Mandag, 03 May 2021 by admin

EITC/QI/QIF Quantum Information Fundamentals er det europæiske IT-certificeringsprogram om teoretiske og praktiske aspekter af kvanteinformation og kvanteberegning, baseret på kvantefysikkens love snarere end klassisk fysik og tilbyder kvalitative fordele i forhold til deres klassiske modstykker.

Læreplanen for EITC/QI/QIF Quantum Information Fundamentals dækker introduktion til kvantemekanik (herunder overvejelse af dobbeltspalteeksperimentet og stofbølgeinterferens), introduktion til kvanteinformation (qubits og deres geometriske repræsentation), lyspolarisering, usikkerhedsprincip, kvante entanglement, EPR-paradoks, Bell-ulighedskrænkelse, opgivelse af lokal realisme, kvanteinformationsbehandling (inklusive enhedstransformation, single-qubit og to-qubit gates), no-cloning theorem, kvanteteleportation, kvantemåling, kvanteberegning (inklusive introduktion til multi -qubit-systemer, universel familie af porte, reversibilitet af beregninger), kvantealgoritmer (inklusive Quantum Fourier Transform, Simons algoritme, udvidet Churh-Turing-afhandling, Shor'q kvantefaktoreringsalgoritme, Grovers kvantesøgealgoritme), kvante-observerbare, kvante-observerbare qubits implementeringer, kvantekompleksitetsteori, adiabatisk kvanteberegning ion, BQP, introduktion til spin, inden for følgende struktur, der omfatter omfattende videodidaktisk indhold som reference til denne EITC-certificering.

Kvanteinformation er information om tilstanden af ​​et kvantesystem. Det er den grundlæggende enhed for undersøgelse i kvanteinformationsteori og kan manipuleres ved hjælp af kvanteinformationsbehandlingsteknikker. Kvanteinformation refererer til både den tekniske definition i form af Von Neumann-entropi og den generelle beregningsterm.

Kvanteinformation og beregning er et tværfagligt felt, der involverer kvantemekanik, datalogi, informationsteori, filosofi og kryptografi blandt andre felter. Dens undersøgelse er også relevant for discipliner som kognitiv videnskab, psykologi og neurovidenskab. Dens hovedfokus er at udvinde information fra stof i mikroskopisk skala. Observation i videnskaben er et grundlæggende karakteristisk kriturium for virkeligheden og en af ​​de vigtigste måder at tilegne sig information på. Derfor er måling påkrævet for at kvantificere observationen, hvilket gør den afgørende for den videnskabelige metode. I kvantemekanikken kan ikke-pendlende observerbare på grund af usikkerhedsprincippet ikke måles præcist samtidigt, da en egentilstand i den ene basis ikke er en egentilstand i den anden basis. Da begge variabler ikke samtidig er veldefinerede, kan en kvantetilstand aldrig indeholde definitiv information om begge variabler. På grund af denne fundamentale egenskab ved målingen i kvantemekanik, kan denne teori generelt karakteriseres som værende ikke-deterministisk i modsætning til klassisk mekanik, som er fuldt deterministisk. Kvantetilstandes indeterminisme karakteriserer information defineret som kvantesystemers tilstande. I matematiske termer er disse tilstande i superpositioner (lineære kombinationer) af klassiske systems tilstande.

Da information altid er kodet i et fysisk systems tilstand, er den fysisk i sig selv. Mens kvantemekanik beskæftiger sig med at undersøge egenskaber af stof på mikroskopisk niveau, fokuserer kvanteinformationsvidenskab på at udtrække information fra disse egenskaber, og kvanteberegning manipulerer og behandler kvanteinformation - udfører logiske operationer - ved hjælp af kvanteinformationsbehandlingsteknikker.

Kvanteinformation kan ligesom klassisk information behandles ved hjælp af computere, transmitteres fra et sted til et andet, manipuleres med algoritmer og analyseres med datalogi og matematik. Ligesom den grundlæggende enhed for klassisk information er biten, beskæftiger kvanteinformation sig med qubits, som kan eksistere i superposition af 0 og 1 (som samtidig er noget sandt og falsk). Kvanteinformation kan også eksistere i såkaldte sammenfiltrede tilstande, som manifesterer rent ikke-klassiske ikke-lokale korrelationer i deres målinger, hvilket muliggør anvendelser såsom kvanteteleportering. Niveauet af sammenfiltring kan måles ved hjælp af Von Neumann entropi, som også er et mål for kvanteinformation. For nylig er feltet for kvantecomputere blevet et meget aktivt forskningsområde på grund af muligheden for at forstyrre moderne beregning, kommunikation og kryptografi.

Historien om kvanteinformation begyndte ved begyndelsen af ​​det 20. århundrede, da klassisk fysik blev revolutioneret til kvantefysik. Teorierne om klassisk fysik forudsagde absurditeter som den ultraviolette katastrofe eller elektroner, der spiraler ind i kernen. Først blev disse problemer børstet til side ved at tilføje ad hoc-hypoteser til klassisk fysik. Snart blev det klart, at en ny teori skal skabes for at give mening i disse absurditeter, og teorien om kvantemekanik blev født.

Kvantemekanik blev formuleret af Schrödinger ved hjælp af bølgemekanik og Heisenberg ved hjælp af matrixmekanik. Ækvivalensen af ​​disse metoder blev senere bevist. Deres formuleringer beskrev dynamikken i mikroskopiske systemer, men havde flere utilfredsstillende aspekter i beskrivelsen af ​​måleprocesser. Von Neumann formulerede kvanteteori ved hjælp af operatoralgebra på en måde, så den beskrev måling såvel som dynamik. Disse undersøgelser understregede de filosofiske aspekter af måling snarere end en kvantitativ tilgang til at udtrække information via målinger.

I 1960'erne foreslog Stratonovich, Helstrom og Gordon en formulering af optisk kommunikation ved hjælp af kvantemekanik. Dette var den første historiske fremkomst af kvanteinformationsteori. De undersøgte hovedsageligt fejlsandsynligheder og kanalkapacitet til kommunikation. Senere opnåede Holevo en øvre grænse for kommunikationshastighed i transmissionen af ​​en klassisk besked via en kvantekanal.

I 1970'erne begyndte man at udvikle teknikker til at manipulere enkeltatomers kvantetilstande, såsom atomfælden og scanningstunnelmikroskopet, hvilket gjorde det muligt at isolere enkelte atomer og arrangere dem i arrays. Forud for disse udviklinger var præcis kontrol over enkelte kvantesystemer ikke mulig, og eksperimenter brugte grovere, samtidig kontrol over et stort antal kvantesystemer. Udviklingen af ​​levedygtige single-state manipulationsteknikker førte til øget interesse inden for kvanteinformation og beregning.

I 1980'erne opstod interessen for, om det kunne lade sig gøre at bruge kvanteeffekter til at modbevise Einsteins relativitetsteori. Hvis det var muligt at klone en ukendt kvantetilstand, ville det være muligt at bruge sammenfiltrede kvantetilstande til at transmittere information hurtigere end lysets hastighed, hvilket modbeviser Einsteins teori. Ikke-kloningssætningen viste imidlertid, at sådan kloning er umulig. Sætningen var et af de tidligste resultater af kvanteinformationsteorien.

Udvikling fra kryptografi

På trods af al spændingen og interessen over at studere isolerede kvantesystemer og forsøge at finde en måde at omgå relativitetsteorien på, blev forskningen i kvanteinformationsteori stagneret i 1980'erne. Men omkring samme tid begyndte en anden vej at boltre sig i kvanteinformation og beregning: Kryptografi. I en generel forstand er kryptografi problemet med at lave kommunikation eller beregning, der involverer to eller flere parter, som måske ikke har tillid til hinanden.

Bennett og Brassard udviklede en kommunikationskanal, hvor det er umuligt at aflytte uden at blive opdaget, en måde at kommunikere hemmeligt på lange afstande ved hjælp af BB84 kvantekryptografiske protokol. Nøgleideen var brugen af ​​kvantemekanikkens grundlæggende princip, at observation forstyrrer det observerede, og indførelsen af ​​en aflytning i en sikker kommunikationslinje vil øjeblikkeligt lade de to parter, der forsøger at kommunikere, vide om tilstedeværelsen af ​​aflytteren.

Udvikling fra datalogi og matematik

Med fremkomsten af ​​Alan Turings revolutionære ideer om en programmerbar computer eller Turing-maskine, viste han, at enhver beregning i den virkelige verden kan oversættes til en tilsvarende beregning, der involverer en Turing-maskine. Dette er kendt som Church-Turing-afhandlingen.

Snart nok blev de første computere lavet, og computerhardware voksede i et så hurtigt tempo, at væksten gennem erfaring med produktion blev kodificeret til et empirisk forhold kaldet Moores lov. Denne 'lov' er en projektiv tendens, der siger, at antallet af transistorer i et integreret kredsløb fordobles hvert andet år. Efterhånden som transistorer begyndte at blive mindre og mindre for at pakke mere strøm pr. overfladeareal, begyndte kvanteeffekter at dukke op i elektronikken, hvilket resulterede i utilsigtet interferens. Dette førte til fremkomsten af ​​kvantecomputere, som brugte kvantemekanik til at designe algoritmer.

På dette tidspunkt viste kvantecomputere løfte om at være meget hurtigere end klassiske computere for visse specifikke problemer. Et sådant eksempelproblem blev udviklet af David Deutsch og Richard Jozsa, kendt som Deutsch-Jozsa-algoritmen. Dette problem havde dog kun få eller ingen praktiske anvendelser. Peter Shor i 1994 kom med et meget vigtigt og praktisk problem, nemlig at finde de primære faktorer for et heltal. Det diskrete logaritmeproblem, som det blev kaldt, kunne løses effektivt på en kvantecomputer, men ikke på en klassisk computer, hvilket viser, at kvantecomputere er kraftigere end Turing-maskiner.

Udvikling fra informationsteori

Omkring den tid, datalogi lavede en revolution, det samme gjorde informationsteori og kommunikation gennem Claude Shannon. Shannon udviklede to grundlæggende sætninger inden for informationsteori: støjfri kanalkodningssætning og støjkanalkodningssætning. Han viste også, at fejlkorrigerende koder kunne bruges til at beskytte oplysninger, der sendes.

Kvanteinformationsteori fulgte også en lignende bane, Ben Schumacher lavede i 1995 en analog til Shannons støjløse kodningssætning ved hjælp af qubit. Der er også udviklet en teori om fejlkorrektion, som gør det muligt for kvantecomputere at lave effektive beregninger uanset støj og lave pålidelig kommunikation over støjende kvantekanaler.

Qubits og informationsteori

Kvanteinformation adskiller sig stærkt fra klassisk information, indbegrebet af bit, på mange slående og ukendte måder. Mens den grundlæggende enhed for klassisk information er bit, er den mest grundlæggende enhed af kvanteinformation qubit. Klassisk information måles ved hjælp af Shannon-entropi, mens den kvantemekaniske analog er Von Neumann-entropi. Et statistisk ensemble af kvantemekaniske systemer er karakteriseret ved tæthedsmatricen. Mange entropimål i klassisk informationsteori kan også generaliseres til kvantetilfældet, såsom Holevo-entropi og den betingede kvanteentropi.

I modsætning til klassiske digitale tilstande (som er diskrete) har en qubit en kontinuerlig værdi, der kan beskrives med en retning på Bloch-sfæren. På trods af at den løbende værdiansættes på denne måde, er en qubit den mindst mulige enhed af kvanteinformation, og på trods af at qubit-tilstanden er kontinuert værdisat, er det umuligt at måle værdien præcist. Fem berømte teoremer beskriver grænserne for manipulation af kvanteinformation:

  • no-teleportation teorem, som siger, at en qubit ikke kan (helt) konverteres til klassiske bits; det vil sige, at den ikke kan læses fuldt ud.
  • ikke-kloningssætning, som forhindrer en vilkårlig qubit i at blive kopieret,
  • no-deleting teorem, som forhindrer en vilkårlig qubit i at blive slettet,
  • no-broadcasting teorem, som forhindrer en vilkårlig qubit i at blive leveret til flere modtagere, selvom den kan transporteres fra sted til sted (f.eks. via kvanteteleportering),
  • no-hiding teorem, som demonstrerer bevarelsen af ​​kvanteinformation, Disse teoremer beviser, at kvanteinformation i universet er bevaret, og de åbner op for unikke muligheder i kvanteinformationsbehandling.

Kvanteoplysning

Tilstanden af ​​en qubit indeholder al dens information. Denne tilstand udtrykkes ofte som en vektor på Bloch-sfæren. Denne tilstand kan ændres ved at anvende lineære transformationer eller kvanteporte til dem. Disse enhedstransformationer beskrives som rotationer på Bloch-sfæren. Mens klassiske porte svarer til de velkendte operationer i boolsk logik, er kvanteporte fysiske enhedsoperatører.

På grund af kvantesystemernes volatilitet og umuligheden af ​​at kopiere tilstande er lagring af kvanteinformation meget vanskeligere end lagring af klassisk information. Ikke desto mindre kan kvanteinformation med brug af kvantefejlkorrektion stadig i princippet opbevares pålideligt. Eksistensen af ​​kvantefejlkorrigerende koder har også ført til muligheden for fejltolerant kvanteberegning.
Klassiske bits kan kodes ind i og efterfølgende hentes fra konfigurationer af qubits ved brug af kvanteporte. I sig selv kan en enkelt qubit ikke formidle mere end en bit tilgængelig klassisk information om dens forberedelse. Dette er Holevos sætning. Men i superdense kodning kan en afsender, ved at handle på en af ​​to sammenfiltrede qubits, formidle to bits tilgængelig information om deres fælles tilstand til en modtager.
Kvanteinformation kan flyttes rundt i en kvantekanal, analogt med konceptet om en klassisk kommunikationskanal. Kvantemeddelelser har en endelig størrelse, målt i qubits; kvantekanaler har en endelig kanalkapacitet, målt i qubits per sekund.
Kvanteinformation og ændringer i kvanteinformation kan måles kvantitativt ved at bruge en analog af Shannon-entropien, kaldet von Neumann-entropien.
I nogle tilfælde kan kvantealgoritmer bruges til at udføre beregninger hurtigere end i nogen kendt klassisk algoritme. Det mest berømte eksempel på dette er Shors algoritme, der kan faktorisere tal i polynomiel tid, sammenlignet med de bedste klassiske algoritmer, der tager sub-eksponentiel tid. Da faktorisering er en vigtig del af sikkerheden ved RSA-kryptering, udløste Shors algoritme det nye felt inden for post-kvantekryptografi, der forsøger at finde krypteringssystemer, der forbliver sikre, selv når kvantecomputere er i spil. Andre eksempler på algoritmer, der demonstrerer kvanteoverherredømme, omfatter Grovers søgealgoritme, hvor kvantealgoritmen giver en kvadratisk speed-up i forhold til den bedst mulige klassiske algoritme. Kompleksitetsklassen af ​​problemer, der effektivt kan løses af en kvantecomputer, er kendt som BQP.
Quantum key distribution (QKD) tillader ubetinget sikker transmission af klassisk information, i modsætning til klassisk kryptering, som altid kan brydes i princippet, hvis ikke i praksis. Bemærk, at visse subtile punkter vedrørende sikkerheden ved QKD stadig diskuteres heftigt.
Studiet af alle ovenstående emner og forskelle omfatter kvanteinformationsteori.

Relation til kvantemekanik

Kvantemekanik er studiet af, hvordan mikroskopiske fysiske systemer ændrer sig dynamisk i naturen. Inden for kvanteinformationsteorien er de undersøgte kvantesystemer abstraheret væk fra enhver modpart i den virkelige verden. En qubit kan for eksempel fysisk være en foton i en lineær optisk kvantecomputer, en ion i en fanget ion kvantecomputer, eller det kan være en stor samling af atomer som i en superledende kvantecomputer. Uanset den fysiske implementering gælder grænserne og træk ved qubits impliceret af kvanteinformationsteorien, da alle disse systemer er matematisk beskrevet af det samme apparat af tæthedsmatricer over de komplekse tal. En anden vigtig forskel med kvantemekanik er, at mens kvantemekanik ofte studerer uendelig-dimensionelle systemer såsom en harmonisk oscillator, vedrører kvanteinformationsteori både kontinuerte variable systemer og finit-dimensionelle systemer.

Kvanteberegning

Kvanteberegning er en form for beregning, der udnytter de kollektive egenskaber ved kvantetilstande, såsom superposition, interferens og sammenfiltring, til at udføre beregninger. De enheder, der udfører kvanteberegninger, er kendt som kvantecomputere.: I-5 Selvom de nuværende kvantecomputere er for små til at udkonkurrere sædvanlige (klassiske) computere til praktiske anvendelser, menes de at være i stand til at løse visse beregningsproblemer, såsom heltalsfaktorisering (som ligger til grund for RSA-kryptering), væsentligt hurtigere end klassiske computere. Studiet af kvanteberegning er et underområde inden for kvanteinformationsvidenskab.

Kvanteberegning begyndte i 1980, da fysikeren Paul Benioff foreslog en kvantemekanisk model af Turing-maskinen. Richard Feynman og Yuri Manin foreslog senere, at en kvantecomputer havde potentialet til at simulere ting, som en klassisk computer ikke kunne gøre. I 1994 udviklede Peter Shor en kvantealgoritme til faktorisering af heltal med potentiale til at dekryptere RSA-krypteret kommunikation. I 1998 skabte Isaac Chuang, Neil Gershenfeld og Mark Kubinec den første to-qubit kvantecomputer, der kunne udføre beregninger. På trods af igangværende eksperimentelle fremskridt siden slutningen af ​​1990'erne, mener de fleste forskere, at "fejltolerant kvanteberegning [er] stadig en temmelig fjern drøm." I de senere år er investeringerne i kvantecomputerforskning steget i den offentlige og private sektor. Den 23. oktober 2019 hævdede Google AI i samarbejde med US National Aeronautics and Space Administration (NASA) at have udført en kvanteberegning, der var umulig på nogen klassisk computer, men hvorvidt denne påstand var eller stadig er gyldig er et emne om aktiv forskning.

Der er flere typer kvantecomputere (også kendt som kvantecomputersystemer), herunder kvantekredsløbsmodellen, kvante-Turing-maskine, adiabatisk kvantecomputer, envejs kvantecomputer og forskellige kvantecellulære automater. Den mest udbredte model er kvantekredsløbet, baseret på kvantebit, eller "qubit", som er noget analogt med bit i klassisk beregning. En qubit kan være i en 1- eller 0-kvantetilstand eller i en superposition af 1- og 0-tilstandene. Når det måles, er det dog altid 0 eller 1; sandsynligheden for begge udfald afhænger af qubittens kvantetilstand umiddelbart før måling.

Indsatsen for at opbygge en fysisk kvantecomputer fokuserer på teknologier såsom transmons, ionfælder og topologiske kvantecomputere, som har til formål at skabe qubits af høj kvalitet.: 2–13 Disse qubits kan være designet anderledes, afhængigt af den fulde kvantecomputers computermodel. hvad enten det drejer sig om kvantelogiske porte, kvanteudglødning eller adiabatisk kvanteberegning. Der er i øjeblikket en række væsentlige forhindringer for at konstruere nyttige kvantecomputere. Det er særligt svært at opretholde qubits' kvantetilstande, da de lider af kvantedekohærens og statstroskab. Kvantecomputere kræver derfor fejlretning.

Ethvert beregningsproblem, der kan løses af en klassisk computer, kan også løses af en kvantecomputer. Omvendt kan ethvert problem, der kan løses af en kvantecomputer, også løses af en klassisk computer, i det mindste i princippet givet nok tid. Kvantecomputere adlyder med andre ord Church-Turing-afhandlingen. Dette betyder, at mens kvantecomputere ikke giver yderligere fordele i forhold til klassiske computere med hensyn til beregningsevne, har kvantealgoritmer til visse problemer væsentligt lavere tidskompleksiteter end tilsvarende kendte klassiske algoritmer. Kvantecomputere menes især at være i stand til hurtigt at løse visse problemer, som ingen klassisk computer kunne løse inden for nogen mulig tid - en bedrift kendt som "kvanteoverherredømme". Studiet af den beregningsmæssige kompleksitet af problemer med hensyn til kvantecomputere er kendt som kvantekompleksitetsteori.

Den fremherskende model for kvanteberegning beskriver beregningen i form af et netværk af kvantelogiske porte. Denne model kan opfattes som en abstrakt lineær-algebraisk generalisering af et klassisk kredsløb. Da denne kredsløbsmodel adlyder kvantemekanikken, menes en kvantecomputer, der er i stand til effektivt at køre disse kredsløb, at være fysisk realiserbar.

En hukommelse bestående af n informationsbit har 2^n mulige tilstande. En vektor, der repræsenterer alle hukommelsestilstande, har således 2^n indgange (en for hver tilstand). Denne vektor ses som en sandsynlighedsvektor og repræsenterer det faktum, at hukommelsen skal findes i en bestemt tilstand.

I den klassiske visning ville én post have en værdi på 1 (dvs. en 100 % sandsynlighed for at være i denne tilstand), og alle andre poster ville være nul.

I kvantemekanikken kan sandsynlighedsvektorer generaliseres til tæthedsoperatorer. Kvantetilstandsvektorformalismen introduceres normalt først, fordi den er konceptuelt enklere, og fordi den kan bruges i stedet for tæthedsmatrixformalismen til rene tilstande, hvor hele kvantesystemet er kendt.

en kvanteberegning kan beskrives som et netværk af kvantelogiske porte og målinger. Enhver måling kan dog udskydes til slutningen af ​​kvanteberegningen, selvom denne udsættelse kan komme til en beregningsomkostning, så de fleste kvantekredsløb viser et netværk, der kun består af kvantelogiske porte og ingen målinger.

Enhver kvanteberegning (som i ovenstående formalisme er enhver enhedsmatrix over n qubits) kan repræsenteres som et netværk af kvantelogiske porte fra en ret lille familie af porte. Et valg af portfamilie, der muliggør denne konstruktion, er kendt som et universelt portsæt, da en computer, der kan køre sådanne kredsløb, er en universel kvantecomputer. Et almindeligt sådant sæt inkluderer alle enkelt-qubit-gates såvel som CNOT-porten fra oven. Dette betyder, at enhver kvanteberegning kan udføres ved at udføre en sekvens af enkelt-qubit-gates sammen med CNOT-gates. Selvom dette portsæt er uendeligt, kan det erstattes med et begrænset portsæt ved at appellere til Solovay-Kitaev-sætningen.

Kvantealgoritmer

Fremskridt med at finde kvantealgoritmer fokuserer typisk på denne kvantekredsløbsmodel, selvom der findes undtagelser som den kvanteadiabatiske algoritme. Kvantealgoritmer kan groft kategoriseres efter typen af ​​speedup opnået i forhold til tilsvarende klassiske algoritmer.

Kvantealgoritmer, der tilbyder mere end en polynomiel speedup i forhold til den bedst kendte klassiske algoritme inkluderer Shor's algoritme til factoring og de relaterede kvantealgoritmer til beregning af diskrete logaritmer, løsning af Pells ligning og mere generelt løsning af det skjulte undergruppeproblem for abelske finite grupper. Disse algoritmer afhænger af kvante-Fourier-transformationens primitive. Der er ikke fundet noget matematisk bevis, der viser, at en lige så hurtig klassisk algoritme ikke kan opdages, selvom dette anses for usandsynligt. [selvudgivet kilde?] Visse orakelproblemer som Simons problem og Bernstein-Vazirani-problemet giver påviselige speedups, selvom dette er i kvanteforespørgselsmodellen, som er en begrænset model, hvor nedre grænser er meget nemmere at bevise og ikke nødvendigvis oversættes til speedups for praktiske problemer.

Andre problemer, herunder simulering af kvantefysiske processer fra kemi og faststoffysik, tilnærmelsen af ​​visse Jones-polynomier og kvantealgoritmen for lineære ligningssystemer har kvantealgoritmer, der ser ud til at give superpolynomielle speedups og er BQP-komplette. Fordi disse problemer er BQP-komplette, ville en lige så hurtig klassisk algoritme for dem indebære, at ingen kvantealgoritme giver en superpolynomiel speedup, hvilket menes at være usandsynligt.

Nogle kvantealgoritmer, som Grovers algoritme og amplitudeforstærkning, giver polynomielle speedups i forhold til tilsvarende klassiske algoritmer. Selvom disse algoritmer giver en forholdsvis beskeden kvadratisk speedup, er de vidt anvendelige og giver således speedups til en bred vifte af problemer. Mange eksempler på bevisbare kvantehastigheder for forespørgselsproblemer er relateret til Grovers algoritme, herunder Brassard, Høyer og Tapps algoritme til at finde kollisioner i to-til-en funktioner, som bruger Grovers algoritme og Farhi, Goldstone og Gutmanns algoritme til at evaluere NAND træer, som er en variant af søgeproblemet.

Kryptografiske applikationer

En bemærkelsesværdig anvendelse af kvanteberegning er for angreb på kryptografiske systemer, der i øjeblikket er i brug. Heltalsfaktorisering, som understøtter sikkerheden for kryptografiske systemer med offentlige nøgler, menes at være beregningsmæssigt umulig med en almindelig computer til store heltal, hvis de er et produkt af få primtal (f.eks. produkter af to 300-cifrede primtal). Til sammenligning kunne en kvantecomputer effektivt løse dette problem ved hjælp af Shors algoritme til at finde dens faktorer. Denne evne ville gøre det muligt for en kvantecomputer at bryde mange af de kryptografiske systemer, der er i brug i dag, i den forstand, at der ville være en polynomisk tidsalgoritme (i antallet af cifre i hele tallet) til at løse problemet. Især er de fleste af de populære offentlige nøglecifre baseret på vanskeligheden ved at faktorisere heltal eller det diskrete logaritmeproblem, som begge kan løses med Shors algoritme. Især RSA, Diffie–Hellman og elliptiske kurve Diffie–Hellman algoritmerne kunne brydes. Disse bruges til at beskytte sikre websider, krypteret e-mail og mange andre typer data. At bryde disse ville have betydelige konsekvenser for elektronisk privatliv og sikkerhed.

Identifikation af kryptografiske systemer, der kan være sikre mod kvantealgoritmer, er et aktivt forsket emne inden for post-kvantekryptografi. Nogle offentlige nøglealgoritmer er baseret på andre problemer end heltalsfaktorisering og diskrete logaritmeproblemer, som Shors algoritme gælder for, som McEliece-kryptosystemet baseret på et problem i kodningsteori. Gitterbaserede kryptosystemer vides heller ikke at blive brudt af kvantecomputere, og at finde en polynomisk tidsalgoritme til at løse det dihedrale skjulte undergruppeproblem, som ville bryde mange gitterbaserede kryptosystemer, er et velundersøgt åbent problem. Det er blevet bevist, at anvendelse af Grovers algoritme til at bryde en symmetrisk (hemmelig nøgle) algoritme med brute force kræver tid svarende til ca. 2n/2 påkaldelser af den underliggende kryptografiske algoritme sammenlignet med ca. 2n i det klassiske tilfælde, hvilket betyder, at symmetriske nøglelængder er effektivt halveret: AES-256 ville have samme sikkerhed mod et angreb ved hjælp af Grovers algoritme, som AES-128 har mod klassisk brute-force-søgning (se Nøglestørrelse).

Kvantekryptografi kunne potentielt opfylde nogle af funktionerne ved offentlig nøglekryptografi. Kvantebaserede kryptografiske systemer kunne derfor være mere sikre end traditionelle systemer mod kvantehacking.

Søgeproblemer

Det mest kendte eksempel på et problem, der indrømmer en polynomisk kvantehastighed, er ustruktureret søgning, hvor man finder et markeret element ud af en liste med n elementer i en database. Dette kan løses ved Grovers algoritme ved at bruge O(sqrt(n))-forespørgsler til databasen, kvadratisk færre end de Omega(n)-forespørgsler, der kræves til klassiske algoritmer. I dette tilfælde er fordelen ikke kun beviselig, men også optimal: Det har vist sig, at Grovers algoritme giver den maksimalt mulige sandsynlighed for at finde det ønskede element for et vilkårligt antal orakelopslag.

Problemer, der kan løses med Grovers algoritme, har følgende egenskaber:

  • Der er ingen søgbar struktur i samlingen af ​​mulige svar,
  • Antallet af mulige svar at kontrollere er det samme som antallet af input til algoritmen, og
  • Der findes en boolsk funktion, der evaluerer hvert input og afgør, om det er det rigtige svar

For problemer med alle disse egenskaber skaleres køretiden for Grovers algoritme på en kvantecomputer som kvadratroden af ​​antallet af input (eller elementer i databasen), i modsætning til den lineære skalering af klassiske algoritmer. En generel klasse af problemer, som Grovers algoritme kan anvendes på, er det boolske tilfredshedsproblem, hvor databasen, som algoritmen itererer igennem, er den af ​​alle mulige svar. Et eksempel og (mulig) anvendelse af dette er en adgangskodekrakker, der forsøger at gætte en adgangskode. Symmetriske cifre såsom Triple DES og AES er særligt sårbare over for denne form for angreb. Denne anvendelse af kvantecomputere er en stor interesse for offentlige myndigheder.

Simulering af kvantesystemer

Da kemi og nanoteknologi er afhængige af forståelse af kvantesystemer, og sådanne systemer er umulige at simulere på en effektiv måde klassisk, mener mange, at kvantesimulering vil være en af ​​de vigtigste anvendelser af kvanteberegning. Kvantesimulering kunne også bruges til at simulere adfærden af ​​atomer og partikler under usædvanlige forhold, såsom reaktionerne inde i en kollider. Kvantesimuleringer kan muligvis bruges til at forudsige fremtidige baner for partikler og protoner under superposition i dobbeltspalte-eksperimentet.[Citat nødvendig] Omkring 2% af den årlige globale energiproduktion bruges til nitrogenfiksering for at producere ammoniak til Haber-processen i landbruget gødningsindustrien, mens naturligt forekommende organismer også producerer ammoniak. Kvantesimuleringer kan bruges til at forstå denne proces, der øger produktionen.

Kvanteudglødning og adiabatisk optimering
Kvanteudglødning eller adiabatisk kvanteberegning er afhængig af den adiabatiske sætning til at foretage beregninger. Et system placeres i grundtilstanden for en simpel Hamiltonianer, som langsomt udvikles til en mere kompliceret Hamiltonianer, hvis grundtilstand repræsenterer løsningen på det pågældende problem. Den adiabatiske sætning siger, at hvis udviklingen er langsom nok, vil systemet hele tiden forblive i sin grundtilstand gennem processen.

Maskinelæring

Da kvantecomputere kan producere output, som klassiske computere ikke kan producere effektivt, og da kvanteberegning grundlæggende er lineær algebraisk, udtrykker nogle håb om at udvikle kvantealgoritmer, der kan fremskynde maskinlæringsopgaver. For eksempel menes kvantealgoritmen for lineære ligningssystemer eller "HHL Algorithm", opkaldt efter dens opdagere Harrow, Hassidim og Lloyd, at give fremskyndelse i forhold til klassiske modstykker. Nogle forskergrupper har for nylig udforsket brugen af ​​kvanteudglødningshardware til træning af Boltzmann-maskiner og dybe neurale netværk.

Computational biologi

Inden for beregningsbiologi har kvanteberegning spillet en stor rolle i løsningen af ​​mange biologiske problemer. Et af de velkendte eksempler ville være i computational genomics og hvordan computing drastisk har reduceret tiden til at sekventere et menneskeligt genom. I betragtning af hvordan beregningsbiologi bruger generisk datamodellering og lagring, forventes dens anvendelser til beregningsbiologi også at opstå.

Computerstøttet lægemiddeldesign og generativ kemi

Dybe generative kemimodeller dukker op som kraftfulde værktøjer til at fremskynde opdagelsen af ​​lægemidler. Imidlertid udgør den enorme størrelse og kompleksitet af det strukturelle rum af alle mulige lægemiddellignende molekyler betydelige forhindringer, som kunne overvindes i fremtiden af ​​kvantecomputere. Kvantecomputere er naturligvis gode til at løse komplekse kvantemange-kropsproblemer og kan derfor være medvirkende til applikationer, der involverer kvantekemi. Derfor kan man forvente, at kvanteforstærkede generative modeller inklusive kvante-GAN'er i sidste ende kan udvikles til ultimative generative kemialgoritmer. Hybride arkitekturer, der kombinerer kvantecomputere med dybe klassiske netværk, såsom Quantum Variational Autoencoders, kan allerede trænes på kommercielt tilgængelige annealere og bruges til at generere nye lægemiddellignende molekylære strukturer.

Udvikling af fysiske kvantecomputere
Udfordringer
Der er en række tekniske udfordringer ved at bygge en storstilet kvantecomputer. Fysiker David DiVincenzo har listet disse krav til en praktisk kvantecomputer:

  • Fysisk skalerbar for at øge antallet af qubits,
  • Qubits, der kan initialiseres til vilkårlige værdier,
  • Kvanteporte, der er hurtigere end dekohærenstid,
  • Universal port sæt,
  • Qubits, der let kan læses.

Det er også meget vanskeligt at finde dele til kvantecomputere. Mange kvantecomputere, som dem, der er konstrueret af Google og IBM, har brug for helium-3, et nuklear forskningsbiprodukt, og specielle superledende kabler fremstillet kun af det japanske firma Coax Co.

Styringen af ​​multi-qubit-systemer kræver generering og koordinering af et stort antal elektriske signaler med stram og deterministisk timing-opløsning. Dette har ført til udviklingen af ​​kvantecontrollere, som muliggør interfacing med qubits. At skalere disse systemer til at understøtte et stigende antal qubits er en yderligere udfordring.

Kvantedekohærens

En af de største udfordringer forbundet med at konstruere kvantecomputere er at kontrollere eller fjerne kvantedekohærens. Dette betyder normalt, at systemet isoleres fra dets omgivelser, da interaktioner med den ydre verden får systemet til at dekohere. Der findes dog også andre kilder til dekohærens. Eksempler inkluderer kvanteportene og gittervibrationerne og baggrundens termonukleære spin af det fysiske system, der bruges til at implementere qubits. Dekohærens er irreversibel, da den reelt er ikke-enhedsmæssig og normalt er noget, der bør kontrolleres meget, hvis det ikke undgås. Dekohærenstider for især kandidatsystemer, den tværgående afslapningstid T2 (for NMR- og MR-teknologi, også kaldet dephasing-tiden), ligger typisk mellem nanosekunder og sekunder ved lav temperatur. I øjeblikket kræver nogle kvantecomputere, at deres qubits afkøles til 20 millikelvin (normalt ved hjælp af et fortyndingskøleskab) for at forhindre betydelig dekohærens. En undersøgelse fra 2020 hævder, at ioniserende stråling, såsom kosmiske stråler, alligevel kan få visse systemer til at dekohere inden for millisekunder.

Som et resultat heraf kan tidskrævende opgaver gøre nogle kvantealgoritmer ubrugelige, da opretholdelse af tilstanden af ​​qubits i en lang nok varighed i sidste ende vil ødelægge superpositionerne.

Disse problemer er vanskeligere for optiske tilgange, da tidsskalaerne er størrelsesordener kortere, og en ofte nævnt tilgang til at overvinde dem er optisk pulsformning. Fejlrater er typisk proportionale med forholdet mellem driftstid og dekohærenstid, hvorfor enhver operation skal afsluttes meget hurtigere end dekohærenstiden.

Som beskrevet i kvantetærskelsætningen, hvis fejlraten er lille nok, menes det at være muligt at bruge kvantefejlkorrektion til at undertrykke fejl og dekohærens. Dette gør det muligt for den samlede beregningstid at være længere end dekohærenstiden, hvis fejlkorrektionsskemaet kan rette fejl hurtigere, end dekohærens introducerer dem. Et ofte nævnt tal for den krævede fejlrate i hver gate til fejltolerant beregning er 10−3, forudsat at støjen er depolariserende.

At opfylde denne skalerbarhedsbetingelse er muligt for en lang række systemer. Brugen af ​​fejlkorrektion medfører imidlertid omkostningerne ved et stærkt øget antal nødvendige qubits. Det tal, der kræves for at faktorisere heltal ved hjælp af Shor's algoritme, er stadig polynomium og menes at være mellem L og L2, hvor L er antallet af cifre i det tal, der skal faktoriseres; fejlkorrektionsalgoritmer ville puste dette tal op med en ekstra faktor L. For et 1000-bit tal indebærer dette et behov for ca. 104 bit uden fejlkorrektion. Med fejlkorrektion ville tallet stige til omkring 107 bit. Beregningstiden er omkring L2 eller omkring 107 trin og ved 1 MHz, omkring 10 sekunder.

En meget anderledes tilgang til stabilitets-dekohærensproblemet er at skabe en topologisk kvantecomputer med anyoner, kvasipartikler brugt som tråde og afhængig af fletningsteori for at danne stabile logiske porte.

Kvant overherredømme

Quantum supremacy er et begreb, der er opfundet af John Preskill, der refererer til den tekniske bedrift at demonstrere, at en programmerbar kvanteenhed kan løse et problem ud over mulighederne for state-of-the-art klassiske computere. Problemet behøver ikke være nyttigt, så nogle ser kun kvanteoverherredømmetesten som et potentielt fremtidigt benchmark.

I oktober 2019 blev Google AI Quantum, med hjælp fra NASA, den første til at hævde at have opnået kvanteoverherredømme ved at udføre beregninger på Sycamore kvantecomputeren mere end 3,000,000 gange hurtigere, end de kunne gøres på Summit, generelt betragtet som verdens hurtigste computer. Denne påstand er efterfølgende blevet anfægtet: IBM har udtalt, at Summit kan udføre prøver meget hurtigere end hævdet, og forskere har siden udviklet bedre algoritmer til prøvetagningsproblemet, der bruges til at hævde kvanteoverherredømme, hvilket giver væsentlige reduktioner til eller lukker kløften mellem Sycamore og klassiske supercomputere.

I december 2020 implementerede en gruppe ved USTC en type Boson-sampling på 76 fotoner med en fotonisk kvantecomputer Jiuzhang for at demonstrere kvanteoverherredømme. Forfatterne hævder, at en klassisk moderne supercomputer ville kræve en beregningstid på 600 millioner år for at generere antallet af prøver, som deres kvanteprocessor kan generere på 20 sekunder. Den 16. november 2021 præsenterede IBM på kvantecomputertopmødet en 127-qubit mikroprocessor ved navn IBM Eagle.

Fysiske implementeringer

For fysisk implementering af en kvantecomputer forfølges mange forskellige kandidater, blandt dem (kendetegnet ved det fysiske system, der bruges til at realisere qubits):

  • Superledende kvanteberegning (qubit implementeret af tilstanden af ​​små superledende kredsløb, Josephson junctions)
  • Fanget ion kvantecomputer (qubit implementeret af den interne tilstand af fangede ioner)
  • Neutrale atomer i optiske gitter (qubit implementeret af interne tilstande af neutrale atomer fanget i et optisk gitter)
  • Kvanteprikcomputer, spin-baseret (f.eks. Loss-DiVincenzo kvantecomputeren) (qubit givet af spin-tilstande af fangede elektroner)
  • Kvanteprikcomputer, rumlig baseret (qubit givet ved elektronposition i dobbelt kvanteprik)
  • Kvanteberegning ved hjælp af konstruerede kvantebrønde, som i princippet kunne muliggøre konstruktion af kvantecomputere, der fungerer ved stuetemperatur
  • Koblet kvantetråd (qubit implementeret af et par kvantetråde koblet af en kvantepunktkontakt)
  • Kernemagnetisk resonans kvantecomputer (NMRQC) implementeret med kernemagnetisk resonans af molekyler i opløsning, hvor qubits leveres af nukleare spins i det opløste molekyle og sonderet med radiobølger
  • Solid-state NMR Kane kvantecomputere (qubit realiseret af den nukleare spin-tilstand af fosfordonorer i silicium)
  • Elektroner-på-helium kvantecomputere (qubit er elektronspin)
  • Kavitetskvanteelektrodynamik (CQED) (qubit leveret af den indre tilstand af fangede atomer koblet til hulrum med høj finesse)
  • Molekylær magnet (qubit givet af spintilstande)
  • Fulleren-baseret ESR kvantecomputer (qubit baseret på det elektroniske spin af atomer eller molekyler indkapslet i fullerener)
  • Ikke-lineær optisk kvantecomputer (qubits realiseret ved at behandle tilstande af forskellige lystilstande gennem både lineære og ikke-lineære elementer)
  • Lineær optisk kvantecomputer (qubits realiseret ved at behandle tilstande af forskellige lystilstande gennem lineære elementer, f.eks. spejle, stråledelere og faseskiftere)
  • Diamantbaseret kvantecomputer (qubit realiseret af det elektroniske eller nukleare spin af nitrogen-ledige centre i diamant)
  • Bose-Einstein kondensatbaseret kvantecomputer
  • Transistorbaseret kvantecomputer – strengkvantecomputere med indføring af positive huller ved hjælp af en elektrostatisk fælde
  • Sjældne jordarters metal-ion-doterede uorganiske krystalbaserede kvantecomputere (qubit realiseret af den interne elektroniske tilstand af dopingstoffer i optiske fibre)
  • Metallisk-lignende kulstof nanosfærer-baserede kvantecomputere
  • Det store antal kandidater viser, at kvantecomputere, trods hurtige fremskridt, stadig er i sin vorden.

Der findes en række kvanteberegningsmodeller, der er kendetegnet ved de grundlæggende elementer, hvori beregningen er dekomponeret. Til praktiske implementeringer er de fire relevante beregningsmodeller:

  • Quantum gate array (beregning opdelt i en sekvens af få-qubit quantum-gates)
  • Envejs kvantecomputer (beregning opdelt i en sekvens af en-qubit-målinger anvendt på en stærkt sammenfiltret begyndelsestilstand eller klyngetilstand)
  • Adiabatisk kvantecomputer, baseret på kvanteudglødning (beregning dekomponeret til en langsom kontinuerlig transformation af en initial Hamiltonian til en endelig Hamiltonian, hvis grundtilstande indeholder løsningen)
  • Topologisk kvantecomputer (beregning dekomponeret til fletning af anyoner i et 2D-gitter)

Kvante Turing-maskinen er teoretisk vigtig, men den fysiske implementering af denne model er ikke gennemførlig. Alle fire beregningsmodeller har vist sig at være ækvivalente; hver kan simulere den anden med ikke mere end polynomial overhead.

For at gøre dig nærmere bekendt med certificeringspensum kan du udvide og analysere nedenstående tabel.

EITC/QI/QIF Quantum Information Fundamentals Certification Curriculum refererer til didaktisk materiale med åben adgang i en videoform. Læreprocessen er opdelt i en trin-for-trin struktur (programmer -> lektioner -> emner), der dækker relevante læseplansdele. Der tilbydes også ubegrænset rådgivning med domæneeksperter.
Tjek for detaljer om certificeringsproceduren Sådan fungerer det.

Læs mere
Ingen kommentarer

EITC/IS/QCF Quantum Cryptography Fundamentals

Mandag, 03 May 2021 by admin

EITC/IS/QCF Quantum Cryptography Fundamentals er det europæiske IT-certificeringsprogram om teoretiske og praktiske aspekter af kvantekryptografi, primært med fokus på Quantum Key Distribution (QKD), som i forbindelse med One-Time Pad tilbyder for første gang i historie absolut (informationsteoretisk) kommunikationssikkerhed.

Læreplanen for EITC/IS/QCF Quantum Cryptography Fundamentals dækker introduktion til Quantum Key Distribution, kvantekommunikationskanalers informationsbærere, sammensatte kvantesystemer, klassisk og kvanteentropi som kommunikationsteoretiske informationsmål, QKD-forberedelse og måleprotokoller, sammenfiltringsbaserede QKD-protokoller, QKD klassisk efterbehandling (inklusive fejlkorrektion og privatlivsforstærkning), sikkerhed for kvantenøgledistribution (definitioner, aflytningstrategier, sikkerhed for BB84-protokollen, sikkerhed cia entropiske usikkerhedsrelationer), praktisk QKD (eksperiment vs. teori), introduktion til eksperimentel kvante kryptografi, såvel som kvantehacking, inden for følgende struktur, der omfatter omfattende videodidaktisk indhold som reference for denne EITC-certificering.

Kvantekryptografi er optaget af at udvikle og implementere kryptografiske systemer, der er baseret på kvantefysiske love snarere end klassiske fysiklove. Kvantenøgledistribution er den mest kendte anvendelse af kvantekryptografi, da den giver en informationsteoretisk sikker løsning på nøgleudvekslingsproblemet. Kvantekryptografi har den fordel at tillade fuldførelsen af ​​en række kryptografiske opgaver, der har vist sig eller formodet at være umulige udelukkende ved brug af klassisk (ikke-kvante) kommunikation. Kopiering af data kodet i en kvantetilstand er for eksempel umuligt. Hvis de kodede data forsøges at blive læst, vil kvantetilstanden blive ændret på grund af bølgefunktionskollaps (ingen-kloningssætning). I kvantenøgledistribution kan dette bruges til at detektere aflytning (QKD).

Stephen Wiesners og Gilles Brassards arbejde er krediteret for at etablere kvantekryptografi. Wiesner, dengang ved Columbia University i New York, opfandt konceptet med kvantekonjugatkodning i begyndelsen af ​​1970'erne. IEEE Information Theory Society afviste hans vigtige undersøgelse "Conjugate Coding", men den blev til sidst offentliggjort i SIGACT News i 1983. I denne undersøgelse demonstrerede han, hvordan man koder to meddelelser i to "konjugerede observerbare" såsom lineær og cirkulær fotonpolarisering , således at enten, men ikke begge, kan modtages og afkodes. Det var først på det 20. IEEE Symposium on the Foundations of Computer Science, som blev afholdt i Puerto Rico i 1979, at Charles H. Bennett fra IBM's Thomas J. Watson Research Center og Gilles Brassard opdagede, hvordan man kunne inkorporere Wiesners resultater. "Vi erkendte, at fotoner aldrig var beregnet til at lagre information, men snarere for at formidle den" Bennett og Brassard introducerede et sikkert kommunikationssystem ved navn BB84 i 1984, baseret på deres tidligere arbejde. Efter David Deutschs idé om at bruge kvante-ikke-lokalitet og Bells ulighed til at opnå sikker nøgledistribution, undersøgte Artur Ekert entanglement-baseret kvantenøglefordeling i større dybde i en undersøgelse fra 1991.

Kaks tre-trins teknik foreslår, at begge sider roterer deres polarisering tilfældigt. Hvis enkelte fotoner anvendes, kan denne teknologi teoretisk bruges til kontinuerlig, ubrydelig datakryptering. Det er blevet implementeret den grundlæggende polarisationsrotationsmekanisme. Dette er en udelukkende kvantebaseret kryptografimetode, i modsætning til kvantenøgledistribution, som bruger klassisk kryptering.

Kvantenøglefordelingsmetoder er baseret på BB84-metoden. MagiQ Technologies, Inc. (Boston, Massachusetts, USA), ID Quantique (Geneve, Schweiz), QuintessenceLabs (Canberra, Australien), Toshiba (Tokyo, Japan), QNu Labs og SeQureNet er alle producenter af kvantekrypteringssystemer (Paris) , Frankrig).

Fordele

Kryptografi er det sikreste led i datasikkerhedskæden. Interesserede parter kan på den anden side ikke forvente, at kryptografiske nøgler forbliver sikre permanent. Kvantekryptografi har evnen til at kryptere data i længere tid end traditionel kryptografi. Forskere kan ikke garantere kryptering i mere end 30 år med traditionel kryptografi, men nogle interessenter kan kræve længere beskyttelsesperioder. Tag for eksempel sundhedsindustrien. Elektroniske journalsystemer bruges af 85.9 % af de kontorbaserede læger til at opbevare og overføre patientdata fra og med 2017. Sygejournaler skal holdes private i henhold til lov om overførsel og ansvarlighed for sygesikring. Papirjournaler forbrændes normalt, efter at der er gået en vis tid, mens edb-journaler efterlader et digitalt spor. Elektroniske optegnelser kan beskyttes i op til 100 år ved hjælp af kvantenøgledistribution. Kvantekryptografi har også applikationer til regeringer og militære, da regeringer typisk har holdt militært materiale hemmeligt i næsten 60 år. Der er også blevet påvist, at kvantenøgledistribution kan være sikker, selv når den transmitteres over en støjende kanal over en lang afstand. Det kan omdannes til et klassisk lydløst skema fra et støjende kvanteskema. Klassisk sandsynlighedsteori kan bruges til at tackle dette problem. Quantum repeatere kan hjælpe med denne proces med konstant beskyttelse over en støjende kanal. Kvanterepeatere er i stand til effektivt at løse kvantekommunikationsfejl. For at sikre kommunikationssikkerhed kan kvanterepeatere, som er kvantecomputere, placeres som segmenter over den støjende kanal. Kvanterepeatere opnår dette ved at rense kanalsegmenterne, før de forbinder dem for at danne en sikker kommunikationslinje. Over en lang afstand kan sub-par kvanterepeatere give et effektivt niveau af beskyttelse gennem den støjende kanal.

Applikationer

Kvantekryptografi er et bredt begreb, der refererer til en række forskellige kryptografiske teknikker og protokoller. De følgende afsnit gennemgår nogle af de mest bemærkelsesværdige applikationer og protokoller.

Kvantenøgler distribution

Teknikken med at bruge kvantekommunikation til at etablere en delt nøgle mellem to parter (for eksempel Alice og Bob) uden at en tredjepart (Eve) lærer noget om den nøgle, selvom Eve kan aflytte al kommunikation mellem Alice og Bob, er kendt. som QKD. Uoverensstemmelser vil udvikle sig, hvis Eve forsøger at indsamle viden om nøglen, der etableres, hvilket får Alice og Bob til at bemærke. Når nøglen er etableret, bruges den normalt til at kryptere kommunikation via traditionelle metoder. Den udvekslede nøgle kan f.eks. bruges til symmetrisk kryptografi (f.eks. One-time pad).

Kvantenøgledistributionens sikkerhed kan etableres teoretisk uden at pålægge nogen begrænsninger for en aflytters færdigheder, hvilket ikke er opnåeligt med klassisk nøgledistribution. Selvom der kræves nogle minimale antagelser, såsom at kvantefysik gælder, og at Alice og Bob kan autentificere hinanden, burde Eve ikke være i stand til at efterligne Alice eller Bob, fordi et man-i-midten-angreb ville være muligt.

Mens QKD ser ud til at være sikker, står dens applikationer over for praktiske udfordringer. På grund af transmissionsafstand og nøglegenereringshastighedsbegrænsninger er dette tilfældet. Kontinuerlig forskning og udvikling inden for teknologi har muliggjort fremtidige fremskridt i sådanne begrænsninger. Lucamarini et al. foreslog et twin-field QKD-system i 2018, der muligvis kan overvinde en tabsgivende kommunikationskanals rate-tab-skalering. Ved 340 kilometer optisk fiber blev hastigheden af ​​tvillingfeltprotokollen vist at overstige den hemmelige nøgleaftalekapacitet for den tabsgivende kanal, kendt som den repeater-løse PLOB-bundet; dens ideelle hastighed overstiger denne grænse allerede ved 200 kilometer og følger rate-tab-skaleringen af ​​den højere repeater-assisterede hemmelige nøgle-aftale-kapacitet (se figur 1 for flere detaljer). Ifølge protokollen kan ideelle nøglesatser opnås ved at bruge "550 kilometer konventionel optisk fiber", som allerede er meget brugt i kommunikation. Minder et al., som er blevet døbt den første effektive kvanterepeater, bekræftede det teoretiske fund i den første eksperimentelle demonstration af QKD ud over rate-tab grænsen i 2019. Sender-ikke-sende (SNS) varianten af ​​TF-QKD Protokol er et af de store gennembrud med hensyn til at nå høje rater over lange afstande.

Mistroisk kvantekryptografi

Deltagerne i mistroisk kryptografi stoler ikke på hinanden. Alice og Bob samarbejder for eksempel om at gennemføre en beregning, hvor begge parter giver private input. Alice, på den anden side, stoler ikke på Bob, og Bob stoler ikke på Alice. Som et resultat heraf nødvendiggør en sikker implementering af et kryptografisk job Alices forsikring om, at Bob ikke snød, når først beregningen er afsluttet, og Bobs forsikring om, at Alice ikke snød. Forpligtelsesordninger og sikre beregninger, hvoraf sidstnævnte omfatter opgaver med møntflipping og uvidende overførsel, er eksempler på mistroiske kryptografiske opgaver. Feltet for utroværdig kryptografi omfatter ikke nøgledistribution. Mistroisk kvantekryptografi undersøger brugen af ​​kvantesystemer inden for mistroisk kryptografi.

I modsætning til kvantenøglefordeling, hvor ubetinget sikkerhed kan opnås udelukkende gennem kvantefysikkens love, er der no-go-sætninger, der beviser, at ubetinget sikre protokoller ikke kan opnås udelukkende gennem kvantefysikkens love i tilfælde af forskellige opgaver i mistroisk kryptografi. Nogle af disse jobs kan dog udføres med absolut sikkerhed, hvis protokollerne gør brug af både kvantefysik og speciel relativitetsteori. Mayers og Lo og Chau demonstrerede for eksempel, at absolut sikker kvantebit-forpligtelse er umulig. Lo og Chau demonstrerede, at ubetinget sikker perfekt vending af kvantemønter er umulig. Ydermere demonstrerede Lo, at kvanteprotokoller for en ud af to uvidende overførsel og andre sikre topartsberegninger ikke kan garanteres at være sikre. Kent har på den anden side demonstreret ubetinget sikre relativistiske protokoller for møntflipping og bit-commitment.

Kvantemøntvending

Kvantemøntvending, i modsætning til kvantenøglefordeling, er en mekanisme, der bruges mellem to parter, der ikke har tillid til hinanden. Deltagerne kommunikerer gennem en kvantekanal og udveksler data via qubit-transmission. Men fordi Alice og Bob er mistroiske over for hinanden, forventer de begge, at den anden vil snyde. Som følge heraf skal der bruges mere arbejde på at sikre, at hverken Alice eller Bob har et væsentligt forspring i forhold til hinanden for at opnå det ønskede resultat. En bias er evnen til at påvirke et bestemt resultat, og der er en stor indsats for at designe protokoller for at eliminere bias fra en uærlig spiller, også kendt som snyd. Kvantekommunikationsprotokoller, såsom kvantemøntflipping, har vist sig at give betydelige sikkerhedsfordele i forhold til traditionel kommunikation, på trods af at de kan være udfordrende at implementere i praksis.

Følgende er en typisk møntflip-protokol:

  • Alice vælger en basis (retlinet eller diagonal) og genererer en streng af fotoner i denne basis for at levere til Bob.
  • Bob vælger en retlinet eller diagonal basis for at måle hver foton tilfældigt, og noterer hvilket grundlag han brugte og den registrerede værdi.
  • Bob laver et offentligt gæt om det grundlag, som Alice sendte sine qubits på.
  • Alice afslører sit valg af basis og sender Bob sin originale streng.
  • Bob bekræfter Alices streng ved at sammenligne den med hans bord. Det burde være perfekt forbundet med Bobs målinger foretaget på Alices basis og fuldstændig ukorreleret med det modsatte.

Når en spiller forsøger at påvirke eller forbedre sandsynligheden for et bestemt resultat, er dette kendt som snyd. Nogle former for snyd frarådes af protokollen; for eksempel kunne Alice hævde, at Bob fejlagtigt gættede hendes oprindelige grundlag, da han gættede rigtigt i trin 4, men Alice skulle så generere en ny streng af qubits, der perfekt korrelerer med, hvad Bob målte i den modsatte tabel. Med antallet af overførte qubits falder hendes chancer for at generere en matchende streng af qubits eksponentielt, og hvis Bob bemærker et misforhold, vil han vide, at hun lyver. Alice kunne på samme måde konstruere en streng af fotoner ved at kombinere tilstande, men Bob ville hurtigt se, at hendes streng til en vis grad (men ikke fuldstændigt) vil svare til begge sider af bordet, hvilket indikerer, at hun var utro. Der er også en iboende svaghed i nutidige kvanteanordninger. Bobs målinger vil blive påvirket af fejl og tabte qubits, hvilket resulterer i huller i hans måletabel. Bobs evne til at verificere Alices qubit-sekvens i trin 5 vil blive hæmmet af væsentlige målefejl.

Einstein-Podolsky-Rosen (EPR) paradokset er en teoretisk sikker måde for Alice at snyde. To fotoner i et EPR-par er anti-relateret, hvilket betyder, at de altid vil have modsatte polariseringer, når de måles på samme basis. Alice kan skabe en række EPJ-par, sende det ene til Bob og beholde det andet for sig selv. Hun kunne måle sit EPR-par-fotoner i den modsatte basis og få en perfekt korrelation til Bobs modsatte tabel, når Bob udtaler sit gæt. Bob ville ikke ane, at hun havde snydt. Dette kræver dog færdigheder, som kvanteteknologien i øjeblikket mangler, hvilket gør det umuligt at opnå i praksis. For at trække dette ud, ville Alice være i stand til at gemme alle fotoner i en længere periode og måle dem med næsten perfekt nøjagtighed. Dette skyldes, at hver foton, der mistes under opbevaring eller måling, ville efterlade et hul i hendes streng, som hun skulle fylde med gætværk. Jo flere gæt hun skal foretage sig, jo større sandsynlighed er der for, at hun bliver taget i at snyde af Bob.

Kvanteforpligtelse

Når der er mistroiske parter involveret, bruges kvanteforpligtelsesmetoder ud over kvantemøntflipping. En forpligtelsesordning giver en part Alice mulighed for at fastsætte en værdi (at "forpligte") på en sådan måde, at Alice ikke kan ændre den, og modtageren Bob kan ikke lære noget om det, før Alice afslører det. Kryptografiske protokoller anvender ofte sådanne forpligtelsesmekanismer (f.eks. kvantemøntvending, Zero-knowledge proof, sikker topartsberegning og Oblivious overførsel).

De ville være særligt gavnlige i kvantemiljøer: Crépeau og Kilian demonstrerede, at en ubetinget sikker protokol til at udføre såkaldt oblivious transfer kan bygges ud fra en forpligtelse og en kvantekanal. Kilian har på den anden side demonstreret, at uvidende overførsel kunne bruges til at konstruere praktisk talt enhver distribueret beregning på en sikker måde (såkaldt sikker flerpartsberegning). (Bemærk, hvordan vi er lidt sjuskede her: Resultaterne fra Crépeau og Kilian indikerer ikke direkte, at man kan udføre sikker flerpartsberegning med en forpligtelse og en kvantekanal. Dette skyldes, at resultaterne ikke sikrer "komponerbarhed", hvilket betyder, at når du kombinerer dem, risikerer du at miste sikkerheden.

Tidlige kvanteforpligtelsesmekanismer viste sig desværre at være defekte. Mayers demonstrerede, at (ubetinget sikker) kvanteforpligtelse er umulig: enhver kvanteforpligtelsesprotokol kan brydes af en beregningsmæssigt grænseløs angriber.

Mayers' opdagelse udelukker dog ikke muligheden for at bygge kvanteforpligtelsesprotokoller (og dermed sikre flerpartsberegningsprotokoller) ved brug af betydeligt svagere antagelser end dem, der kræves for forpligtelsesprotokoller, der ikke anvender kvantekommunikation. En situation, hvor kvantekommunikation kan bruges til at udvikle forpligtelsesprotokoller, er den afgrænsede kvantelagringsmodel beskrevet nedenfor. En opdagelse i november 2013 giver "ubetinget" informationssikkerhed ved at kombinere kvanteteori og relativitet, som er blevet effektivt bevist for første gang på verdensplan. Wang et al. har præsenteret et nyt engagementssystem, hvor "ubetinget skjul" er ideelt.

Kryptografiske forpligtelser kan også konstrueres ved hjælp af fysisk uklonbare funktioner.

Afgrænset og støjende kvanteopbevaringsmodel

Den begrænsede kvantelagringsmodel kan bruges til at skabe ubetinget sikker kvanteforpligtelse og kvante oblivious transfer (OT) protokoller (BQSM). I dette scenarie antages det, at en modstanders kvantedatalagringskapacitet er begrænset af en kendt konstant Q. Der er dog ingen grænse for, hvor meget klassisk (ikke-kvante) data modstanderen kan lagre.

Engagement og uvidende overførselsprocedurer kan bygges i BQSM. Følgende er det grundlæggende koncept: Mere end Q kvantebits udveksles mellem protokolparter (qubits). Fordi selv en uærlig modstander ikke kan gemme alle disse data (modstanderens kvantehukommelse er begrænset til Q qubits), vil en betydelig del af dataene skulle måles eller destrueres. Ved at tvinge uærlige parter til at måle en betydelig del af dataene, kan protokollen undgå det umulige resultat, hvilket tillader engagement og uvidende overførselsprotokoller at blive brugt.

Damgrd, Fehr, Salvail og Schaffners protokoller i BQSM antager ikke, at ærlige protokoldeltagere bevarer nogen kvanteinformation; de tekniske krav er identiske med dem i kvantenøglefordelingsprotokoller. Disse protokoller kan således opnås, i det mindste i teorien, med nutidens teknologi. Kommunikationskompleksiteten på modstanderens kvantehukommelse er kun en konstant faktor højere end det bundne Q.

BQSM har den fordel, at den er realistisk i sin forudsætning om, at modstanderens kvantehukommelse er begrænset. Selv at opbevare en enkelt qubit pålideligt i en længere periode er svært med nutidens teknologi. (Definitionen af ​​"tilstrækkeligt lang" bestemmes af protokollens specifikationer.) Mængden af ​​tid, modstanderen har brug for til at opbevare kvantedata, kan gøres vilkårligt lang ved at tilføje et kunstigt hul i protokollen.)

Den støjende lagringsmodel foreslået af Wehner, Schaffner og Terhal er en udvidelse af BQSM. En modstander har lov til at bruge defekte kvantelagringsenheder af enhver størrelse i stedet for at sætte en øvre grænse for den fysiske størrelse af modstanderens kvantehukommelse. Støjende kvantekanaler bruges til at modellere niveauet af ufuldkommenhed. De samme primitiver som i BQSM kan produceres ved høje nok støjniveauer, således at BQSM er et specifikt tilfælde af støjende-lagringsmodellen.

Lignende resultater kan opnås i den klassiske situation ved at pålægge en grænse for mængden af ​​klassiske (ikke-kvante) data, som modstanderen kan lagre. Det er dog blevet påvist, at i denne model skal de ærlige parter ligeledes forbruge en enorm mængde hukommelse (firkantroden af ​​modstanderens hukommelse bundet). Som et resultat er disse metoder ubrugelige for hukommelsesbegrænsninger i den virkelige verden. (Det er værd at bemærke, at med nutidens teknologi, såsom harddiske, kan en modstander gemme enorme mængder af traditionelle data til en lav pris.)

Kvantekryptografi baseret på position

Formålet med positionsbaseret kvantekryptografi er at bruge en spillers (eneste) legitimation: deres geografiske placering. Antag for eksempel, at du ønsker at sende en besked til en spiller på et bestemt sted med forsikring om, at den kun kan læses, hvis modtageren også er på det sted. Hovedmålet med positionsverifikation er, at en spiller, Alice, skal overbevise de (ærlige) verifikatorer om, at hun er på et bestemt sted. Chandran et al. demonstreret, at positionsverifikation ved hjælp af traditionelle protokoller er umulig i nærværelse af samarbejdende modstandere (som kontrollerer alle positioner undtagen beviserens angivne position). Ordninger er mulige under forskellige begrænsninger for modstanderne.

Kent undersøgte de første positionsbaserede kvantesystemer i 2002 under betegnelsen "kvantemærkning". I 2006 blev der opnået et amerikansk patent. I 2010 blev ideen om at udnytte kvanteeffekter til lokationsverifikation først offentliggjort i videnskabelige tidsskrifter. Efter flere andre kvanteprotokoller til positionsverifikation blev foreslået i 2010, Buhrman et al. hævdede et generelt umuligt resultat: samordnede modstandere kan altid få det til at se ud for verifikatorerne, at de er på den hævdede position ved at bruge en enorm mængde kvanteforviklinger (de bruger et dobbelt eksponentielt antal EPR-par i antallet af qubits, som den ærlige spiller betjener på). I det begrænsede- eller støjende kvante-lagringsparadigme udelukker dette resultat dog ikke muligheden for brugbare tilgange (se ovenfor). Beigi og König øgede senere antallet af EPJ-par, der krævedes i det brede angreb mod positionsbekræftelsesmetoder til eksponentielle niveauer. De viste også, at en protokol er sikker mod modstandere, der kun kontrollerer et lineært antal EPR-par. Udsigten til formel betingelsesløs lokationsverifikation ved hjælp af kvanteeffekter er fortsat et uafklaret emne på grund af tids-energi-kobling, foreslås det i. Det er værd at bemærke, at forskning i positionsbaseret kvantekryptografi har bånd til protokollen for portbaseret kvanteteleportation, som er en mere avanceret variant af kvanteteleportation, hvor flere EPR-par bruges som porte på samme tid.

Enhedsuafhængig kvantekryptografi

Hvis sikkerheden for en kvantekryptografiprotokol ikke er afhængig af sandheden af ​​de anvendte kvanteenheder, siges den at være enhedsuafhængig. Som følge heraf skal situationer med defekte eller endda fjendtlige enheder inkluderes i sikkerhedsanalysen af ​​en sådan protokol. Mayers og Yao foreslog, at kvanteprotokoller designes ved hjælp af "selvtestende" kvanteapparater, hvis interne operationer kan identificeres entydigt af deres input-output-statistikker. Efter det talte Roger Colbeck for at bruge Bell-tests til at vurdere gadgets' ærlighed i sit speciale. Siden da har en række problemer vist sig at tillade ubetinget sikre og enhedsuafhængige protokoller, selv når de faktiske enheder, der udfører Bell-testen, er betydeligt "støjende", dvs. langt fra ideelle. Kvantenøglefordeling, tilfældighedsudvidelse og tilfældighedsforstærkning er eksempler på disse problemer.

Teoretiske undersøgelser udført af Arnon-Friedman et al. i 2018 afsløre, at udnyttelse af en entropi-egenskab kendt som "Entropy Accumulation Theorem (EAT)", som er en udvidelse af Asymptotic Equipartition Property, kan garantere sikkerheden af ​​en enhedsuafhængig protokol.

Post-quantum kryptografi

Kvantecomputere kan blive en teknologisk realitet, så det er afgørende at forske i kryptografiske algoritmer, der kan bruges mod fjender, der har adgang til en. Post-kvantekryptografi er det udtryk, der bruges til at beskrive undersøgelsen af ​​sådanne metoder. Mange populære krypterings- og signaturteknikker (baseret på ECC og RSA) kan brydes ved hjælp af Shors algoritme til faktorisering og beregning af diskrete logaritmer på en kvantecomputer, hvilket nødvendiggør post-kvantekryptografi. McEliece og gitter-baserede skemaer, såvel som de fleste symmetriske nøglealgoritmer, er eksempler på skemaer, der er sikre mod kvantemodstandere fra nutidens viden. Post-kvantekryptografiundersøgelser er tilgængelige.

Eksisterende krypteringsalgoritmer bliver også undersøgt for at se, hvordan de kan opdateres til at håndtere kvantemodstandere. Når det kommer til at udvikle nul-viden bevis systemer, der er sikre mod kvanteangribere, for eksempel, er nye strategier påkrævet: I et traditionelt miljø indebærer analyse af et nul-viden bevis system normalt "tilbagespoling", en teknik, der nødvendiggør kopiering af modstanderens indre tilstand. Fordi kopiering af en tilstand i en kvantekontekst ikke altid er mulig (ingen-kloningssætning), skal der anvendes en tilbagespolingsmetode.

Postkvantealgoritmer er nogle gange kendt som "kvanteresistente", fordi det i modsætning til kvantenøglefordeling er ukendt eller beviseligt, at fremtidige kvanteangreb ikke vil lykkes. NSA erklærer intentioner om at migrere til kvanteresistente algoritmer, på trods af at de ikke er underlagt Shors algoritme. National Institute of Standards and Technology (NIST) mener, at kvantesikre primitiver bør overvejes.

Kvantekryptografi ud over kvantenøglefordeling

Kvantekryptografi har været forbundet med udviklingen af ​​kvantenøglefordelingsprotokoller indtil dette punkt. Desværre, på grund af kravet om etablering og manipulation af flere par hemmelige nøgler, bliver symmetriske kryptosystemer med nøgler spredt via kvantenøgledistribution ineffektive for store netværk (mange brugere) (det såkaldte "nøglestyringsproblem"). Desuden håndterer denne distribution ikke en bred vifte af yderligere kryptografiske processer og tjenester, der er kritiske i hverdagen. I modsætning til kvantenøgledistribution, som inkorporerer klassiske algoritmer til kryptografisk transformation, er Kaks tre-trins protokol blevet præsenteret som en måde til sikker kommunikation, der er fuldt kvante.

Ud over nøgledistribution omfatter kvantekryptografisk autentificering af kvantemeddelelser, kvantedigitale signaturer, kvanteenvejsfunktioner og offentlig nøglekryptering, kvantefingeraftryk og entitetsgodkendelse (se for eksempel Kvanteudlæsning af PUF'er) og så videre.

Praktiske implementeringer

Kvantekryptografi ser ud til at være et vellykket vendepunkt i informationssikkerhedssektoren, i det mindste i princippet. Ingen kryptografisk metode kan dog nogensinde være fuldstændig sikker. Kvantekryptografi er kun betinget sikker i praksis, baseret på et sæt nøgleantagelser.

Antagelse af en enkelt-fotonkilde

En enkelt-fotonkilde antages i den teoretiske underbygning for kvantenøglefordeling. Enkeltfotonkilder er på den anden side svære at bygge, og de fleste kvantekrypteringssystemer i den virkelige verden er afhængige af svage laserkilder til at formidle data. Aflytterangreb, især fotonopdelingsangreb, kan bruge disse multifotonkilder. Eve, en aflytter, kan opdele multifotonkilden i to kopier og beholde en for sig selv. De resterende fotoner sendes efterfølgende til Bob, uden indikation af, at Eve har indsamlet en kopi af dataene. Forskere hævder, at brug af lokketilstande til at teste for tilstedeværelsen af ​​en aflytning kan holde en multi-fotonkilde sikker. Forskere producerede dog en næsten perfekt enkelt fotonkilde i 2016, og de tror, ​​at en vil blive udviklet i den nærmeste fremtid.

Antagelse om identisk detektoreffektivitet

I praksis bruger kvantenøgledistributionssystemer to enkeltfotondetektorer, en til Alice og en til Bob. Disse fotodetektorer er kalibreret til at detektere en indkommende foton inden for et millisekunds interval. Detekteringsvinduerne for de to detektorer vil blive forskudt med en begrænset mængde på grund af fremstillingsvariationer mellem dem. Ved at måle Alices qubit og levere en "falsk tilstand" til Bob, kan en aflytter ved navn Eve drage fordel af detektorens ineffektivitet. Eve samler den foton, Alice sendte, før hun genererer en ny foton, der skal leveres til Bob. Eve manipulerer med fasen og timingen af ​​den "falske" foton på en sådan måde, at Bob ikke er i stand til at opdage en aflytning. Den eneste metode til at eliminere denne sårbarhed er at eliminere uoverensstemmelser i fotodetektoreffektivitet, hvilket er udfordrende på grund af begrænsede fremstillingstolerancer, der producerer optiske vejlængdeforskelle, ledningslængdeforskelle og andre problemer.

For at gøre dig nærmere bekendt med certificeringspensum kan du udvide og analysere nedenstående tabel.

EITC/IS/QCF Quantum Cryptography Fundamentals Certification Curriculum refererer til didaktisk materiale med åben adgang i en videoform. Læreprocessen er opdelt i en trin-for-trin struktur (programmer -> lektioner -> emner), der dækker relevante læseplansdele. Der tilbydes også ubegrænset rådgivning med domæneeksperter.
Tjek for detaljer om certificeringsproceduren Sådan fungerer det.

Læs mere
Ingen kommentarer

EITCA/WD Webudviklingsakademi

Søndag, 07 marts, 2021 by admin

EITCA/WD Web Development Academy er en EU-baseret, internationalt anerkendt standard for ekspertiseattestering, der omfatter viden og praktiske færdigheder inden for både front-end og back-end webudvikling.

Læreplanen for EITCA/WD Web Development Academy dækker faglige kompetencer inden for front-end og back-end, dvs. full-stack webudvikling, der involverer webdesign, indholdsstyringssystemer og fundament for webprogrammering, med særligt fokus på HTML og CSS, JavaScript, PHP og MySQL, Webflow visuel webdesigner (inklusive Webflow CMS indholdsstyringssystem og Webflow eCommerce), WordPress CMS (inklusive Elementor builder, WooCommerce WordPress eCommerce platform og LearnDash LMS læringsstyringssystem), Google Web Designer, samt som fundament for Google Cloud Platform.

At opnå EITCA/WD Web Development Academy-certificering attesterer erhvervelse af færdigheder og bestået afsluttende eksamener for alle de substituerende europæiske IT-certificeringsprogrammer (EITC), der udgør den fulde læseplan for EITCA/WD Web Development Academy (også tilgængelig separat som enkelt EITC-certificering).

Webudvikling betragtes i øjeblikket som et af de vigtigste områder inden for digitale teknologier med stor efterspørgsel på markedet (hvilket markant styrer efterspørgslen efter job i hele it-sektoren) forbundet med dynamisk vækst på World Wide Web. Virksomheder, institutioner og organisationer over hele verden opgraderer og udvider konstant deres webservices, webportaler og websider. Internettet og den webbaserede kommunikation erstatter i øjeblikket andre traditionelle forretnings- og kommunikationskanaler. Ekspertise inden for webdesign (inklusive visuelle teknologier og programmering) såvel som inden for administration af indholdsstyringssystemer garanterer højtlønnede job og hurtige karriereudviklingsmuligheder på grund af mangler hos webudviklingsfolk og webudviklingsevner. Webdesign og webbygningsteknikker har udviklet sig markant i løbet af de seneste år til fordel for visuelle webbyggere, såsom Webflow, Google Web Designer eller Elementor (et webbygger-plugin, der arbejder med WordPress CMS). På den anden side kan professionelle kompetencer inden for fundamentet af webprogrammeringssprog såsom (HTML, CSS og JavaScript) til såkaldt front-end-webudvikling samt PHP- og MySQL-databasestyringssystemprogrammering til såkaldt back-end-webudvikling muliggøre eksperter til let at tilpasse, udvide og forfine de opnåede resultater med hurtigere at bruge visuelle værktøjer. Statiske websteder erstattes næsten udelukkende i dag af avancerede CMS-indholdsstyringssystemer, der gør det let at skalere og udvikle løbende, når de først er implementeret på webportaler (med store konfigurationsmuligheder, højt automatiseringsniveau og størrelser af plugins eller moduler, der udvider standardfunktionaliteter). Et af de dominerende CMS er i øjeblikket et open source WordPress-system, der ikke kun tillader at opbygge avancerede webportaler, men også integrerer domæner i e-handel (online-salgssystemer til internetbutikker eller andre kommercielle platforme) eller læringsstyringssystemer (LMS). Alle disse felter er dækket af EITCA/WD Webudvikling, der integrerer ekspertise inden for både front-end og back-end webudvikling.

Webudvikling er arbejdet med at udvikle et websted (eller mere generelt en webportal eller en webservice) til Internettet (og især til Internets såkaldte World Wide Web-protokol eller kort sagt www). Webudvikling kan variere fra at udvikle en enkel enkelt statisk (med det indhold, der ikke genereres dynamisk) webside med almindelig tekst til komplekse webapplikationer, elektroniske virksomheder, sociale netværk og kommunikationstjenester. En mere omfattende liste over opgaver, som webudvikling ofte henviser til, kan omfatte blandt andet webteknik, webdesign, udvikling af webindhold, klientforbindelse, scripting på klientsiden/serversiden, konfiguration af webserver og netværkssikkerhed og e-handel udvikling.

Blandt webfagfolk henviser webudvikling normalt til de vigtigste ikke-design aspekter ved bygning af websteder: skrivning af markering og kodning. Webudvikling kan bruge indholdsstyringssystemer (CMS) til at gøre indholdsændringer lettere og tilgængelige med grundlæggende tekniske færdigheder (og især strømline disse ændringer og muliggøre involvering af flere mennesker, f.eks. Administrativt personale).

For større organisationer og virksomheder kan webudviklingsteam bestå af hundreder af mennesker (webudviklere) og følge standardmetoder som Agile metoder, mens de udvikler komplette websteder, webportaler eller webtjenester. Mindre organisationer kan kun kræve en enkelt permanent eller kontraherende udvikler eller sekundær tildeling til relaterede jobstillinger såsom en grafisk designer eller informationssystemtekniker. Webudvikling generelt kan være en samarbejdsindsats mellem afdelinger snarere end domænet for en udpeget afdeling. Som almindelig praksis implementeres avancerede webprojekter af kontrakterede specialiserede virksomheder, der kun fokuserer deres ekspertise på udvikling, implementering og administration af websteder eller webtjenester (webudviklingsfirmaer).

Der er tre former for specialisering af webudviklere: front-end-udvikler, back-end-udvikler og full-stack-udvikler. Front-end-udviklere er ansvarlige for adfærd og visualiseringer, der kører i brugerbrowseren (med fokus på HTML/CSS og JavaScript-klient-side-udført kode), mens back-end-udviklere beskæftiger sig med serverne (inklusive generering af dynamisk indhold ved f.eks. PHP-scripting og MySQL-relationsdatabasesystem - et RDBMS). Full-stack webudviklere slutter sig til færdighederne i disse to ekspertiseområder.

Webudvikling er også et kritisk felt inden for internetteknologi og generelt inden for digitale applikationer. EITCA/WD Web Development Academy-programmet placerer certificerede enkeltpersoner som attesterede eksperter inden for avanceret webudvikling, herunder nyeste og gennemprøvede teknologier og værktøjer til front-end og back-end-udvikling. EITCA/WD-certifikatet giver en attestering af professionelle kompetencer inden for området, der designer, bygger og administrerer enkle til komplekse webtjenester (inklusive e-handel).

EITCA/WD Web Development Academy er et avanceret uddannelses- og certificeringsprogram med det refererede højkvalitets open-access omfattende didaktisk indhold organiseret i en trin-for-trin didaktisk proces, der er valgt til passende at adressere den definerede læseplan, uddannelsesmæssigt svarende til international post- kandidatstudier kombineret med industriel digital uddannelse og overgå standardiserede uddannelsestilbud inden for forskellige områder af gældende webudvikling, der er tilgængelige på markedet. Indholdet af EITCA Academy-certificeringsprogrammet er specificeret og standardiseret af European Information Technologies Certification Institute EITCI i Bruxelles. Dette program opdateres løbende løbende på grund af fremskridt inden for webudvikling i overensstemmelse med EITCI-instituttets retningslinjer og er underlagt periodiske akkrediteringer.

EITCA/WD Web Development Academy-programmet består af relevante konstituerende europæiske IT-certificerings-EITC-programmer. Listen over EITC-certificeringer, der er inkluderet i det komplette EITCA/WD Web Development Academy-program, i overensstemmelse med specifikationerne fra European Information Technologies Certification Institute EITCI, er vist nedenfor. Du kan klikke på de respektive EITC-programmer, der er anført i en anbefalet rækkefølge for individuelt at tilmelde dig hvert EITC-program (alternativt til at tilmelde dig det komplette EITCA/WD Web Development Academy-program ovenfor) for at fortsætte med deres individuelle læseplaner og forberede sig på tilsvarende EITC-eksamener. At bestå alle eksamener for alle de substituerende EITC-programmer resulterer med afslutningen af ​​EITCA/WD Web Development Academy-programmet og med tildeling af den tilsvarende EITCA Academy-certificering (suppleret med alle dens substituerende EITC-certificeringer). Efter bestået hver enkelt EITC-eksamen får du også det tilsvarende EITC-certifikat, inden du gennemfører hele EITCA-akademiet.

EITCA/WD Web Development Academy indgår i EITC-programmer

110€

EITC/CL/GCP Google Cloud Platform

Tilmeld dig nu
110€

EITC/WD/WPF WordPress Fundamentals

Tilmeld dig nu
110€

Grundlæggende om EITC/WD/HCF HTML og CSS

Tilmeld dig nu
110€

Grundlæggende om EITC/WD/JSF JavaScript

Tilmeld dig nu
110€

EITC/WD/PMSF PHP og MySQL Fundamentals

Tilmeld dig nu
110€

Grundlæggende om EITC/WD/WFF Webflow

Tilmeld dig nu
110€

EITC/WD/WFCE Webflow CMS og e-handel

Tilmeld dig nu
110€

EITC/WD/WFA Advanced Webflow

Tilmeld dig nu
110€

EITC/WD/EWP Elementor til WordPress

Tilmeld dig nu
110€

EITC/WD/AD Adobe Dreamweaver

Tilmeld dig nu
110€

EITC/EL/LDASH LearnDash WordPress LMS

Tilmeld dig nu
110€

EITC/WD/GWD Google Web Designer

Tilmeld dig nu

Læs mere
Ingen kommentarer

EITC/WD/WPF WordPress Fundamentals

Mandag, 01 March 2021 by admin

EITC/WD/WPF WordPress Fundamentals er det europæiske it-certificeringsprogram inden for webudvikling med fokus på at opbygge og administrere websteder i et af de mest populære og alsidige Content Management Systems - WordPress.

Læreplanen for EITC/WD/WPF WordPress Fundamentals fokuserer på at oprette og administrere avancerede websteder med open source Content Management System kaldet WordPress (aktuelt driver størstedelen af ​​dynamiske websteder på Internettet) organiseret inden for følgende struktur, omfattende omfattende videodidaktik indhold som reference for denne EITC-certificering.

WordPress er et gratis og open source content management system (CMS) skrevet i PHP og parret med en MySQL- eller MariaDB-database. Dens funktioner inkluderer en plugin-arkitektur og et skabelonsystem, der i WordPress omtales som temaer. WordPress blev oprindeligt oprettet som et blogpubliceringssystem, men har udviklet sig til at understøtte andre webindholdstyper, herunder mere traditionelle postlister og fora, mediegallerier, medlemswebsteder, læringsstyringssystemer (LMS) og onlinebutikker. WordPress bruges af mere end 40.5% af de top 10 millioner websteder fra 2021 og er en af ​​de mest populære indholdsstyringssystemløsninger i brug (dette udgør dets bekræftede brug af 64.5% af alle de websteder, hvis indholdsstyringssystem er kendt) .

WordPress blev frigivet den 27. maj 2003 af dets grundlæggere, den amerikanske udvikler Matt Mullenweg og den engelske udvikler Mike Little, som en gaffel af b2/cafelog. Softwaren frigives under GPLv2 (eller senere) licens.

For at fungere skal WordPress installeres på en webserver, enten en del af en internet-hostingtjeneste som WordPress.com eller en computer, der kører softwarepakken WordPress.org for at kunne fungere som netværkshost i sig selv. En lokal computer kan bruges til test og læringsformål til en bruger.

"WordPress er en fabrik, der fremstiller websider" er en kerneanalogi designet til at tydeliggøre WordPress's funktioner: den gemmer indhold og gør det muligt for en bruger at oprette og udgive websider, der ikke kræver noget ud over et domæne og en hostingtjeneste.

WordPress har et web-skabelonsystem ved hjælp af en skabelonprocessor. Dens arkitektur er en frontcontroller, der dirigerer alle anmodninger om ikke-statiske URI'er til en enkelt PHP-fil, der analyserer URI'en og identificerer målsiden. Dette giver mulighed for mere menneskelæsbare permalinks.

WordPress-funktioner inkluderer:

  • Temaer: WordPress-brugere kan installere og skifte mellem forskellige temaer. Temaer giver brugerne mulighed for at ændre udseendet og funktionaliteten på et WordPress-websted uden at ændre kernekoden eller webstedsindholdet. Hver WordPress-webside kræver mindst et tema for at være til stede, og hvert tema skal designes ved hjælp af WordPress-standarder med struktureret PHP, gyldig HTML (HyperText Markup Language) og Cascading Style Sheets (CSS). Temaer kan installeres direkte ved hjælp af WordPress "Udseende" -administrationsværktøjet i instrumentbrættet, eller temamapper kan kopieres direkte til temakataloget, for eksempel via FTP. PHP, HTML og CSS, der findes i temaer, kan ændres direkte for at ændre temaadfærd, eller et tema kan være et "underordnet" tema, der arver indstillinger fra et andet tema og selektivt tilsidesætter funktioner. WordPress-temaer er generelt klassificeret i to kategorier: gratis og premium. Mange gratis temaer er angivet i WordPress-temakataloget (også kendt som arkivet), og premium-temaer kan købes fra markedspladser og individuelle WordPress-udviklere. WordPress-brugere kan også oprette og udvikle deres egne brugerdefinerede temaer. Det gratis tema Underscores oprettet af WordPress-udviklerne er blevet et populært grundlag for nye temaer.
  • Plugins: WordPress 'pluginarkitektur giver brugerne mulighed for at udvide funktionerne og funktionaliteten på et websted eller en blog. Fra januar 2021 har WordPress.org 58,164 plugins til rådighed, som hver tilbyder tilpassede funktioner og funktioner, der gør det muligt for brugere at skræddersy deres websteder til deres specifikke behov. Dette inkluderer dog ikke de premium-plugins, der er tilgængelige (ca. 1,500+), som muligvis ikke er angivet i WordPress.org-arkivet. Disse tilpasninger spænder fra søgemaskineoptimering (SEO) til klientportaler, der bruges til at vise private oplysninger til indloggede brugere, til indholdsstyringssystemer, til indholdsvisning af funktioner, såsom tilføjelse af widgets og navigationslinjer. Ikke alle tilgængelige plugins er altid ajour med opdateringerne, og som et resultat fungerer de muligvis ikke korrekt eller fungerer muligvis slet ikke. De fleste plugins er tilgængelige via WordPress selv, enten ved at downloade dem og installere filerne manuelt via FTP eller via WordPress-dashboardet. Imidlertid tilbyder mange tredjeparter plugins via deres egne hjemmesider, hvoraf mange er betalte pakker. Webudviklere, der ønsker at udvikle plugins, skal lære WordPress 'krogsystem, der består af over 300 kroge opdelt i to kategorier: actionkroge og filterkroge.
  • Mobilapplikationer: Telefonapps til WordPress findes til WebOS, Android, iOS (iPhone, iPod Touch, iPad), Windows Phone og BlackBerry. Disse applikationer, designet af Automattic, har muligheder såsom at tilføje nye blogindlæg og sider, kommentere, moderere kommentarer, besvare kommentarer ud over muligheden for at se statistikken.
  • Tilgængelighed: WordPress-tilgængelighedsteamet har arbejdet for at forbedre tilgængeligheden til kernen i WordPress samt understøtte en klar identifikation af tilgængelige temaer. WordPress-tilgængelighedsteamet giver fortsat uddannelsesmæssig support om webtilgængelighed og inkluderende design. WordPress-kodningsstandarderne for tilgængelighed siger, at "Al ny eller opdateret kode, der frigives i WordPress, skal være i overensstemmelse med retningslinjerne for tilgængelighed af webindhold 2.0 på niveau AA."
  • Andre funktioner: WordPress har også integreret linkadministration; en søgemaskervenlig, ren permalinkstruktur; evnen til at tildele flere kategorier til indlæg; og support til tagging af indlæg. Automatiske filtre er også inkluderet, hvilket giver standardiseret formatering og styling af tekst i indlæg (for eksempel konvertering af regelmæssige tilbud til smarte tilbud). WordPress understøtter også Trackback- og Pingback-standarderne til visning af links til andre websteder, der selv har linket til et indlæg eller en artikel. WordPress-indlæg kan redigeres i HTML ved hjælp af den visuelle editor eller ved hjælp af et af et antal plugins, der giver mulighed for en række tilpassede redigeringsfunktioner.

Før version 3 understøttede WordPress en blog pr. Installation, selvom der kan køres flere samtidige kopier fra forskellige mapper, hvis de er konfigureret til at bruge separate databasetabeller. WordPress Multisites (tidligere omtalt som WordPress Multi-User, WordPress MU eller WPMU) var en gaffel af WordPress oprettet for at tillade flere blogs at eksistere inden for en installation, men kan administreres af en central vedligeholdelse. WordPress MU gør det muligt for dem med websteder at være vært for deres egne blogging-samfund samt kontrollere og moderere alle blogs fra et enkelt dashboard. WordPress MS tilføjer otte nye datatabeller til hver blog. Fra udgivelsen af ​​WordPress 3 er WordPress MU fusioneret med WordPress.

Fra et historisk perspektiv var b2/cafelog, mere almindeligt kendt som b2 eller cafelog, forløberen for WordPress. Det anslås, at b2/cafelog var installeret på ca. 2,000 blogs fra maj 2003. Den blev skrevet i PHP til brug sammen med MySQL af Michel Valdrighi, som nu er en bidragyderudvikler til WordPress. Selvom WordPress er den officielle efterfølger, er et andet projekt, b2evolution, også i aktiv udvikling. WordPress dukkede først op i 2003 som en fælles indsats mellem Matt Mullenweg og Mike Little for at skabe en gaffel med b2. Christine Selleck Tremoulet, en ven af ​​Mullenweg, foreslog navnet WordPress. I 2004 blev licensvilkårene for den konkurrerende Movable Type-pakke ændret af Six Apart, hvilket resulterede i, at mange af dets mest indflydelsesrige brugere migrerede til WordPress. I oktober 2009 konkluderede Open Source CMS MarketShare-rapporten, at WordPress havde den største brandstyrke i ethvert open source-indholdsstyringssystem. Fra marts 2021 bruges WordPress af 64.5% af alle de websteder, hvis indholdsstyringssystem er kendt. Dette er 40.5% af top 10 millioner websteder.

For at gøre dig nærmere bekendt med certificeringspensum kan du udvide og analysere nedenstående tabel.

EITC/WD/WPF WordPress Fundamentals Certification Curriculum refererer til didaktisk materiale med åben adgang i en videoform. Læreprocessen er opdelt i en trin-for-trin struktur (programmer -> lektioner -> emner), der dækker relevante læseplansdele. Der tilbydes også ubegrænset rådgivning med domæneeksperter.
Tjek for detaljer om certificeringsproceduren Sådan fungerer det.

Læs mere
Ingen kommentarer

EITC/WD/EWP Elementor til WordPress

Torsdag 25 februar 2021 by admin

EITC/WD/EWP Elementor til WordPress er det europæiske it-certificeringsprogram på front-end webdesign i WordPress Content Management System baseret på Elementor, et visuelt webbygger-plugin.

Læreplanen for EITC/WD/EWP Elementor til WordPress fokuserer på viden og praktiske færdigheder i visuelle webdesignteknikker fra frontendens perspektiv baseret på WordPress CMS Elementor-plugin organiseret inden for følgende struktur, omfattende omfattende videodidaktisk indhold som en reference til denne EITC-certificering.

Elementor-webstedsbyggeren giver WordPress-brugere mulighed for at oprette og redigere websteder ved at anvende de visuelle træk og slip-teknikker med en indbygget responsiv tilstand. Ud over en freemium-version tilbyder Elementor også en premiumversion af sin WordPress-webstedsbygger - Elementor Pro, som inkluderer yderligere funktioner og over 6 tilføjelser. Fra og med 2021 er Elementor en førende visuel WordPress-builder, tilgængelig på over 57 sprog og er det 5. mest populære WordPress-plugin generelt med over 5 millioner aktive installationer over hele verden. Det er en open source, GPLv3 licenseret platform, der giver anslået 2.24% af de bedste 1M-websteder i verden.

Elementor er en træk og slip visuel webeditor. Det anses for at være en af ​​de mest intuitive redaktører i WordPress. Træk, slip og tilpas. Det giver brugerne mulighed for at vælge mellem over 300 individuelt udformede skabeloner, der er designet til at passe til enhver branche og behov. Den har snesevis af widgets til at oprette ethvert indhold på websteder: knapper, overskrifter, formularer osv. Den har også integreret responsiv redigering, der gør det muligt for brugere at skifte til mobilvisning og tilpasse hvert element for at få det til at se perfekt ud på enhver enhed. Den har en Popup Builder, der giver friheden til at oprette pixel-perfekte popups, inklusive avancerede målretningsindstillinger, en Theme Builder, som er en visuel guide til oprettelsen af ​​hjemmesiden, hvilket giver øjeblikkelig adgang til hver webstedsdel lige inden for editoren. Den har også WooCommerce Builder, der gør det muligt at tage kontrol over WooCommerce onlinebutikken ved at udnytte kraften fra Elementor.

Elementors arbejdsgang inkluderer følgende funktioner:

  • Ingen kodning: Nå avancerede designs uden kodning. Den resulterende sidekode er kompakt og optimeret til alle enheder.
  • Navigator: Naviger mellem alle sideelementer eller lag, se hurtigt brugerdefinerede ændringer og let få adgang til dem via indikatorer
  • Fuld side-editor: Design hele dit websted fra ét sted, inklusive din sidehoved, sidefod og indhold.
  • Finder: En søgefelt, der giver nem navigation mellem forskellige sider og dashboardindstillinger.
  • Genvejstaster: Genvejstaster er tastaturgenveje, der sparer dig tid, når du udfører forskellige handlinger.
  • Genvej Cheatsheet: Et vindue, der popper ud og viser dig den fulde liste over genveje.
  • Fortryd fortryd: Fortryd hurtigt eventuelle fejl med en simpel CTRL/CMD Z.
  • Automatisk lagring: Ingen grund til at klikke på Gem. Dit arbejde gemmes kontinuerligt og sikkerhedskopieres automatisk.
  • Revisionshistorik: Med Revisionshistorik gemmes hele din sideoprettelsesproces og kan let spores.
  • Kladttilstand: Udgivet en side og vil fortsætte med at arbejde på den? Intet problem, bare gem det som et kladde.
  • Kopier indsæt: Kopier hurtigt ethvert element og indsæt det på et andet sted på siden eller til en helt anden side på dit websted.
  • Kopistil: Kopier hele stylingen fra en widget, kolonne eller sektion, og indsæt den til et andet element med et klik.
  • In-line-redigering: Brug inline-redigeringsfunktionen til at skrive direkte på skærmen og gøre blogindlæg og indholdsskrivning til en nem og intuitiv proces.
  • Global widget: Gem dine foretrukne widgetindstillinger og genbrug widgetten på enhver side med et enkelt træk og slip.
  • Dark Mode: Elementor Dark Mode-funktion giver dig mulighed for at designe i mørkere miljøer, sparer strøm og er fantastisk til miljøet.
  • Webstedsindstillinger: Styr alle globale elementer på dit websted fra et praktisk sted - inklusive webstedsidentitet, lysboksindstillinger, layout og temastilarter.

Elementors designfunktioner inkluderer:

  • Globale skrifttyper: Indstil dine valg for alle skrifttyper på dit websted - fra titler, afsnit og endda knaptekst. Få adgang til og anvend dem hvor som helst du har brug for det med et enkelt klik.
  • Globale farver: Definer dit websteds designsystem med globale farver. Gem dem en gang, og anvend dem på ethvert element på dit websted.
  • Global tilpasset CSS: Tilføj tilpasset CSS globalt, og anvend dem på hele dit websted.
  • Baggrundsforløb: Med Elementor er det let at tilføje baggrundsforløbsfarver til enhver WordPress-side eller et indlæg.
  • Baggrundsvideoer: Gør din baggrund levende ved at tilføje interessante baggrundsvideoer til dine sektioner.
  • Baggrundsoverlay: Tilføj et nyt lag med farve, gradient eller billede over din baggrund.
  • Forbedrede baggrundsbilleder: Tilpas responsive baggrundsbilleder pr. Enhed, og indstil dens 'brugerdefinerede position og størrelse.
  • Baggrundsdiasshow: Opret et lysbilledshow, og brug det som baggrund for enhver sektion eller kolonne på dit websted.
  • Elementor Canvas: Skift til Elementor Canvas-skabelonen, og design hele din landingsside i Elementor uden at skulle behandle sidehovedet eller sidefoden.
  • Blandingstilstande: Bland baggrunde og baggrundsoverlejringer for at skabe spektakulære effekter i blandetilstand.
  • CSS-filtre: Ved hjælp af CSS-filtre kan du lege med billedindstillingerne og tilføje fantastiske effekter.
  • Formdeler: Tilføj slående figurer for at adskille sektionerne på din side. Få dem til at skille sig ud med en række SVG, ikoner og tekster inde i formdeleren.
  • Box Shadow: Indstil specialfremstillede bokseskygger visuelt uden at skulle beskæftige sig med CSS.
  • Absolut position: Brug Absolut placering til at trække en widget til et hvilket som helst sted på siden, uanset gitteret.
  • Websider med én side: Opret et websted med en side, der inkluderer klik for at rulle navigering samt alle de nødvendige sektioner på et websted.
  • Bevægelseseffekter: Tilføj interaktioner og animationer til dit websted ved hjælp af rulleeffekter og museffekter.
  • Ikonebibliotek: Upload og gennemse tusinder af fantastiske ikoner
  • SVG-ikoner: Opret smarte, fleksible og lette ikoner i enhver størrelse. SVG-ikoners opførsel gør det muligt for dem at kunne tilpasses super.
  • Temastil: Overtag dit temadesign, inklusive overskrift, knap, formularfelt, baggrund og billedformat.

Elementors brugstilfælde indeholder også dedikerede marketingelementer, såsom:

  • Landingssider: Oprettelse og styring af destinationssider har aldrig været så let, alt sammen på dit nuværende WordPress-websted.
  • Form Widget: Farvel backend! Opret alle dine formularer direkte, lige fra Elementor-editoren.
  • Popup Builder: Popup Builder giver dig friheden til at oprette pixel-perfekte popups, inklusive avancerede målretningsmuligheder
  • Testimonial-karrusel-widget: Forøg din virksomheds sociale bevis ved at tilføje en roterende test-karrusel af dine mest støttende kunder.
  • Nedtællingswidget: Øg hastigheden ved at føje en nedtællingstimer til dit tilbud.
  • Bedømmelse af stjerne-widget: Tilføj noget socialt bevis på dit websted ved at medtage en stjernebedømmelse og style det efter eget valg.
  • Multi-Step Form: Multi-Step-funktionen giver dig mulighed for at opdele din form i trin for bedre brugeroplevelse og større konverteringsfrekvenser.
  • Handlingslinks: Opret let forbindelse til dit publikum via WhatsApp, Waze, Google Kalender og flere apps

For at gøre dig nærmere bekendt med certificeringspensum kan du udvide og analysere nedenstående tabel.

EITC/WD/EWP Elementor for WordPress Certification Curriculum refererer til didaktisk materiale med åben adgang i en videoform. Læreprocessen er opdelt i en trin-for-trin struktur (programmer -> lektioner -> emner), der dækker relevante læseplansdele. Der tilbydes også ubegrænset rådgivning med domæneeksperter.
Tjek for detaljer om certificeringsproceduren Sådan fungerer det.

Læs mere
Ingen kommentarer

EITCA/AI Artificial Intelligence Academy

Onsdag 17 februar 2021 by admin

EITCA/AI Artificial Intelligence Academy er en EU-baseret, internationalt anerkendt standard for ekspertiseattestering, der omfatter teoretisk viden og praktiske færdigheder inden for AI.

Læreplanen for EITCA/AI Artificial Intelligence Academy dækker faglige kompetencer inden for områderne Google Cloud Machine Learning, Google Vision API, TensorFlow-grundlæggende, Machine Learning med Python, Deep Learning med TensorFlow, Python, Keras og PyTorch, Advanced og forstærket Deep Learning , Quantum Artificial Intelligence og Quantum TensorFlow sammen med Cirq samt grundlæggende i Google Cloud Platform og Python programmering.

At opnå EITCA/AI certificering af kunstig intelligens akademi vidner om erhvervelse af viden og beståelse af afsluttende eksamener for alle de substituerende europæiske it-certificering (EITC) programmer, der udgør den fulde læseplan for EITCA/AI kunstig intelligens akademi (også tilgængelig separat som enkelt EITC certificeringer).

AI er en af ​​de vigtigste, muliggørende og potentielle anvendelser af informationsteknologier, der i væsentlig grad påvirker den moderne økonomi og samfund, som bliver mere og mere digitaliseret. AI er først kommet for nylig i de sidste par år. Det påvirker allerede stærkt de fleste områder af sociale og økonomiske aktiviteter, lige fra smart søgning efter information, gennem oversættelse, optimering af komplekse processer og tilbud om forskellige hjælpeteknologier (f.eks. Autonom kørsel, cybersikkerhed osv.) Op til intelligente enheder i gang Tingenes internet og robotteknologi. Det er bestemt en af ​​de mest prospektive og muliggørende retninger i den samlede teknologiske udvikling.

AI implementeret og administreret med passende modeller og værktøjer betragtes også som en af ​​de mest strategiske retninger for fremtiden for computerudvikling, hvilket giver betydelig merværdi i AI-assisterede processer, især relateret til Big Data (dvs. store mængder data indsamlet og behandlet i næsten enhver kompleks situation eller et system). I en æra med fremadskridende digitalisering af liv og økonomi bliver færdigheder inden for kunstig intelligens især vigtige, og den rolle, som dygtige AI-ingeniører spiller på det moderne arbejdsmarked, kan ikke undervurderes. Professionelle kompetencer inden for kunstig intelligens kan bruges i utallige applikationer inden for beskæftigelse og andre professionelle aktiviteter. En formel bekræftelse af disse færdigheder med det officielle EU EITCA/AI-certifikat forbedrer deres værdi yderligere, især i øjnene af potentielle arbejdsgivere og entreprenører.

Kunstig intelligens er også et kritisk forskningsfelt inden for informationsteknologi for fremtiden inden for mange områder af digitale applikationer. Programmet EITCA/AI Artificial Intelligence Academy placerer certificerede enkeltpersoner som attesterede eksperter inden for avanceret AI, herunder de nyeste og dokumenterede succesrige domæner inden for maskinlæring. EITCA/AI-certifikatet giver en attestering af professionelle kompetencer inden for både teknisk udvikling og anvendelse af AI-systemer til virkelige verdensproblemer og scenarier.

EITCA/AI kunstig intelligensakademi er et avanceret trænings- og certificeringsprogram med det refererede højkvalitets open-access omfattende didaktisk indhold organiseret i en trin-for-trin didaktisk proces, valgt til passende at adressere den definerede læseplan, uddannelsesmæssigt svarende til international post- kandidatstudier kombineret med industriel digital uddannelse og overgå standardiserede uddannelsestilbud inden for forskellige områder af anvendelig kunstig intelligens, der findes på markedet. Indholdet af EITCA Academy-certificeringsprogrammet er specificeret og standardiseret af European Information Technologies Certification Institute EITCI i Bruxelles. Dette program opdateres løbende løbende på grund af AI-fremskridt i overensstemmelse med EITCI-instituttets retningslinjer og er underlagt periodiske akkrediteringer.

EITCA/AI-programmet for kunstig intelligensakademi omfatter relevante sammensatte europæiske IT-certificerings-EITC-programmer. Listen over EITC-certificeringer, der er inkluderet i det komplette EITCA/AI Artificial Intelligence Academy-program, i overensstemmelse med specifikationerne fra European Information Technologies Certification Institute EITCI, er vist nedenfor. Du kan klikke på de respektive EITC-programmer, der er anført i en anbefalet rækkefølge for individuelt at tilmelde sig hvert EITC-program (alternativt til at tilmelde sig det komplette EITCA/AI Artificial Intelligence Academy-program ovenfor) for at fortsætte med deres individuelle læseplaner og forberede sig på tilsvarende EITC-eksamener. At bestå alle eksamener for alle de substituerende EITC-programmer resulterer med afslutningen af ​​EITCA/AI Artificial Intelligence Academy-programmet og med tildeling af den tilsvarende EITCA Academy-certificering (suppleret med alle dens substituerende EITC-certificeringer). Efter bestået hver enkelt EITC-eksamen får du også det tilsvarende EITC-certifikat, inden du gennemfører hele EITCA-akademiet.

EITCA/AI kunstige intelligens akademiske bestanddele EITC programmer

110€

EITC/AI/GCML Google Cloud Machine Learning

Tilmeld dig nu
110€

EITC/CL/GCP Google Cloud Platform

Tilmeld dig nu
110€

Grundlæggende om EITC/CP/PPF Python-programmering

Tilmeld dig nu
110€

EITC/AI/GVAPI Google Vision API

Tilmeld dig nu
110€

EITC/AI/TFF TensorFlow Fundamentals

Tilmeld dig nu
110€

EITC/AI/MLP maskinindlæring med Python

Tilmeld dig nu
110€

EITC/AI/DLTF Deep Learning med TensorFlow

Tilmeld dig nu
110€

EITC/AI/DLPTFK Deep Learning med Python, TensorFlow og Keras

Tilmeld dig nu
110€

EITC/AI/DLPP Deep Learning med Python og PyTorch

Tilmeld dig nu
110€

EITC/AI/ADL Advanced Deep Learning

Tilmeld dig nu
110€

EITC/AI/ARL Advanced Reinforced Learning

Tilmeld dig nu
110€

EITC/AI/TFQML TensorFlow Quantum Machine Learning

Tilmeld dig nu

Læs mere
Ingen kommentarer

EITC/AI/ARL Advanced Reinforced Learning

Søndag, 07 februar 2021 by admin

EITC/AI/ARL Advanced Reinforced Learning er det europæiske it-certificeringsprogram for DeepMinds tilgang til styrket læring inden for kunstig intelligens.

Læreplanen for EITC/AI/ARL Advanced Reinforced Learning fokuserer på teoretiske aspekter og praktiske færdigheder i forstærkede læringsteknikker fra DeepMind's perspektiv organiseret inden for følgende struktur og omfatter omfattende videodidaktisk indhold som reference for denne EITC-certificering.

Forstærkelsesindlæring (RL) er et område med maskinindlæring, der beskæftiger sig med, hvordan intelligente agenter burde tage handlinger i et miljø for at maksimere forestillingen om kumulativ belønning. Forstærkelsesindlæring er et af tre grundlæggende maskinindlæringsparadigmer sammen med overvåget læring og ikke-overvåget læring.

Forstærkningslæring adskiller sig fra overvåget læring ved ikke at have behov for mærket input/output-par præsenteres og ikke behov for suboptimale handlinger, der skal rettes eksplicit. I stedet er fokus på at finde en balance mellem udforskning (af ukendt territorium) og udnyttelse (af nuværende viden).

Miljøet er typisk angivet i form af en Markov-beslutningsproces (MDP), fordi mange forstærkningsindlæringsalgoritmer i denne sammenhæng bruger dynamiske programmeringsteknikker. Hovedforskellen mellem de klassiske dynamiske programmeringsmetoder og forstærkningsindlæringsalgoritmer er, at sidstnævnte ikke antager kendskab til en nøjagtig matematisk model af MDP, og de målretter mod store MDP'er, hvor nøjagtige metoder bliver umulige.

På grund af dets almindelighed studeres forstærkningslæring i mange discipliner, såsom spilteori, kontrolteori, operationsforskning, informationsteori, simuleringsbaseret optimering, multi-agent-systemer, sværmintelligens og statistik. I operationsforskning og kontrollitteratur kaldes forstærkningslæring omtrentlig dynamisk programmering eller neurodynamisk programmering. Problemerne med interesse for forstærkningslæring er også blevet undersøgt i teorien om optimal kontrol, som hovedsagelig vedrører eksistensen og karakteriseringen af ​​optimale løsninger og algoritmer til deres nøjagtige beregning og mindre med læring eller tilnærmelse, især i fravær af en matematisk model for miljøet. I økonomi og spilteori kan forstærkningslæring bruges til at forklare, hvordan ligevægt kan opstå under begrænset rationalitet.

Grundlæggende forstærkning modelleres som en Markov-beslutningsproces (MDP). I matematik er en Markov-beslutningsproces (MDP) en diskret stokastisk kontrolproces. Det giver en matematisk ramme til modellering af beslutningstagning i situationer, hvor resultaterne dels er tilfældige og dels under kontrol af en beslutningstager. MDP'er er nyttige til at studere optimeringsproblemer løst via dynamisk programmering. MDP'er var kendt mindst så tidligt som i 1950'erne. En grundlæggende undersøgelse af Markovs beslutningsprocesser var resultatet af Ronald Howards 1960-bog, Dynamic Programming og Markov Processes. De bruges i mange discipliner, herunder robotik, automatisk kontrol, økonomi og fremstilling. Navnet på MDP'er kommer fra den russiske matematiker Andrey Markov, da de er en udvidelse af Markov-kæder.

Ved hvert tidstrin er processen i en eller anden tilstand S, og beslutningstageren kan vælge enhver handling a, der er tilgængelig i tilstand S. Processen reagerer ved næste trin ved tilfældigt at flytte ind i en ny tilstand S 'og give beslutningstager en tilsvarende belønning Ra (S, S ').

Sandsynligheden for, at processen bevæger sig i sin nye tilstand S ', påvirkes af den valgte handling a. Specifikt er det givet af tilstandsovergangsfunktionen Pa (S, S '). Således afhænger den næste tilstand S 'af den aktuelle tilstand S og beslutningstagerens handling a. Men givet S og a er det betinget uafhængigt af alle tidligere stater og handlinger. Med andre ord tilfredsstiller statsovergange af en MDP Markov-ejendommen.

Markovs beslutningsprocesser er en udvidelse af Markov-kæder; forskellen er tilføjelsen af ​​handlinger (tillader valg) og belønninger (giver motivation). Omvendt, hvis der kun findes en handling for hver stat (f.eks. "Vent") og alle belønninger er de samme (f.eks. "Nul"), reduceres en Markov-beslutningsproces til en Markov-kæde.

En forstærkende læringsagent interagerer med sit miljø i diskrete tidstrin. Ved hver gang t modtager agenten den aktuelle tilstand S (t) og belønning r (t). Derefter vælger en handling a (t) fra det sæt tilgængelige handlinger, som derefter sendes til miljøet. Miljøet bevæger sig til en ny tilstand S (t + 1), og belønningen r (t + 1) tilknyttet overgangen bestemmes. Målet med en forstærkende læringsagent er at lære en politik, der maksimerer den forventede kumulative belønning.

Formuleringen af ​​problemet som en MDP forudsætter, at agenten direkte overholder den aktuelle miljøtilstand. I dette tilfælde siges det, at problemet har fuld observerbarhed. Hvis agenten kun har adgang til en delmængde af tilstande, eller hvis de observerede tilstande er ødelagt af støj, siges det, at agenten har delvis observerbarhed, og formelt skal problemet formuleres som en delvist observerbar Markov-beslutningsproces. I begge tilfælde kan det handlingssæt, der er tilgængeligt for agenten, begrænses. F.eks. Kan tilstanden for en kontosaldo være begrænset til at være positiv; hvis tilstandens aktuelle værdi er 3, og tilstandsovergangen forsøger at reducere værdien med 4, er overgangen ikke tilladt.

Når agentens ydeevne sammenlignes med en agent, der fungerer optimalt, giver forskellen i ydeevne begrebet beklagelse. For at kunne handle næsten optimalt skal agenten begrunde de langsigtede konsekvenser af sine handlinger (dvs. maksimere fremtidig indkomst), skønt den øjeblikkelige belønning, der er forbundet med dette, kan være negativ.

Således er forstærkningslæring særdeles velegnet til problemer, der inkluderer en langsigtet kontra kortvarig belønning. Det er blevet anvendt med succes til forskellige problemer, herunder robotstyring, elevatorplanlægning, telekommunikation, backgammon, brikker og Go (AlphaGo).

To elementer gør forstærkningslæring kraftig: brugen af ​​prøver til at optimere ydeevnen og brugen af ​​funktionstilnærmelse til at håndtere store miljøer. Takket være disse to nøglekomponenter kan forstærkningslæring bruges i store miljøer i følgende situationer:

  • En miljømodel er kendt, men en analytisk løsning er ikke tilgængelig.
  • Kun en simulationsmodel af miljøet er givet (emnet for simuleringsbaseret optimering).
  • Den eneste måde at indsamle oplysninger om miljøet på er at interagere med det.

De to første af disse problemer kunne betragtes som planlægningsproblemer (da en eller anden form for model er tilgængelig), mens den sidste kunne betragtes som et ægte læringsproblem. Imidlertid konverterer forstærkningslæring begge planlægningsproblemer til maskinlæringsproblemer.

Efterforskning mod udnyttelse af kompromis er blevet undersøgt mest grundigt gennem det flerarmede banditproblem og for endelige statsrums-MDP'er i Burnetas og Katehakis (1997).

Forstærkningslæring kræver kloge efterforskningsmekanismer; tilfældig valg af handlinger uden henvisning til en estimeret sandsynlighedsfordeling viser dårlig ydeevne. Sagen om (små) endelige Markov-beslutningsprocesser forstås relativt godt. På grund af manglen på algoritmer, der skalerer godt med antallet af tilstande (eller skalerer til problemer med uendelige tilstandsrum), er enkle udforskningsmetoder imidlertid de mest praktiske.

Selvom spørgsmålet om efterforskning ignoreres, og selvom staten var observerbar, er problemet stadig at bruge tidligere erfaringer til at finde ud af, hvilke handlinger der fører til højere kumulative belønninger.

For at gøre dig nærmere bekendt med certificeringspensum kan du udvide og analysere nedenstående tabel.

EITC/AI/ARL Advanced Reinforced Learning Certification Curriculum refererer til didaktisk materiale med åben adgang i en videoform. Læreprocessen er opdelt i en trin-for-trin struktur (programmer -> lektioner -> emner), der dækker relevante læseplansdele. Der tilbydes også ubegrænset rådgivning med domæneeksperter.
Tjek for detaljer om certificeringsproceduren Sådan fungerer det.

Læs mere
Ingen kommentarer

EITC/AI/ADL Advanced Deep Learning

Søndag, 07 februar 2021 by admin

EITC/AI/ADL Advanced Deep Learning er det europæiske it-certificeringsprogram på Google DeepMinds tilgang til avanceret dyb læring til kunstig intelligens.

Læreplanen for EITC/AI/ADL Advanced Deep Learning fokuserer på teoretiske aspekter og praktiske færdigheder i avancerede deep learning-teknikker fra perspektivet fra Google DeepMind organiseret inden for følgende struktur, omfattende omfattende videodidaktisk indhold som en reference til denne EITC-certificering.

Dyb læring (også kendt som dyb struktureret læring) er en del af en bredere familie af maskinindlæringsmetoder baseret på kunstige neurale netværk med repræsentationsindlæring. Læring kan være under opsyn, semi-overvåget eller uden tilsyn. Dyb læringsarkitekturer såsom dybe neurale netværk, dybe trosnetværk, tilbagevendende neurale netværk og nedbrydningsneurale netværk er blevet anvendt på felter inklusive computersyn, maskinsyn, talegenkendelse, naturlig sprogbehandling, lydgenkendelse, socialt netværk, filtrering, maskinoversættelse, bioinformatik , lægemiddeldesign, medicinsk billedanalyse, materialeinspektion og brætspilprogrammer, hvor de har produceret resultater, der kan sammenlignes med og i nogle tilfælde overgår menneskelige ekspertpræstationer.

Kunstige neurale netværk (ANN'er) blev inspireret af informationsbehandling og distribuerede kommunikationsknudepunkter i biologiske systemer. Adjektivet "dyb" i dyb læring henviser til brugen af ​​flere lag i netværket. Tidligt arbejde viste, at en lineær perceptron ikke kan være en universel klassifikator, og at et netværk med en ikke-polynomisk aktiveringsfunktion med et skjult lag af ubegrænset bredde på den anden side kan være det. Dyb læring er en moderne variation, der vedrører et ubegrænset antal lag af afgrænset størrelse, som muliggør praktisk anvendelse og optimeret implementering, samtidig med at den teoretiske universalitet bevares under milde forhold. I dyb læring får lagene også lov til at være heterogene og afvige meget fra biologisk informerede forbindelsesmodeller af hensyn til effektivitet, træneevne og forståelighed, hvorfra den "strukturerede" del.

For at gøre dig nærmere bekendt med certificeringspensum kan du udvide og analysere nedenstående tabel.

EITC/AI/ADL Advanced Deep Learning Certification Curriculum refererer til didaktisk materiale med åben adgang i en videoform. Læreprocessen er opdelt i en trin-for-trin struktur (programmer -> lektioner -> emner), der dækker relevante læseplansdele. Der tilbydes også ubegrænset rådgivning med domæneeksperter.
Tjek for detaljer om certificeringsproceduren Sådan fungerer det.

Læs mere
Ingen kommentarer

EITC/AI/TFF TensorFlow Fundamentals

Lørdag, 06 februar 2021 by admin

EITC/AI/TFF TensorFlow Fundamentals er det europæiske it-certificeringsprogram på Google TensorFlow machine learning-biblioteket, der muliggør programmering af kunstig intelligens.

Læreplanen for EITC/AI/TFF TensorFlow Fundamentals fokuserer på de teoretiske aspekter og praktiske færdigheder i brugen af ​​TensorFlow-biblioteket organiseret inden for følgende struktur og omfatter omfattende videodidaktisk indhold som en reference til denne EITC-certificering.

TensorFlow er et gratis og open source-softwarebibliotek til maskinindlæring. Det kan bruges på tværs af en række opgaver, men har et særligt fokus på træning og slutning af dybe neurale netværk. Det er et symbolsk matematikbibliotek baseret på dataflow og differentierbar programmering. Det bruges til både forskning og produktion hos Google.

TensorFlow blev udviklet af Google Brain-teamet til intern Google-brug. Den blev frigivet under Apache License 2.0 i 2015.

Fra 2011 byggede Google Brain DistBelief som et proprietært maskinlæringssystem baseret på neurale netværk med dyb læring. Dets anvendelse voksede hurtigt på tværs af forskellige Alfabet-virksomheder inden for både forskning og kommercielle applikationer. Google tildelte flere computerforskere, herunder Jeff Dean, til at forenkle og omforme kodebasen for DistBelief til et hurtigere og mere robust applikationsniveau-bibliotek, der blev TensorFlow. I 2009 havde holdet, ledet af Geoffrey Hinton, implementeret generaliseret backpropagation og andre forbedringer, som tillod generering af neurale netværk med væsentligt højere nøjagtighed, for eksempel en 25% reduktion i fejl i talegenkendelse.

TensorFlow er Google Brains andengenerationssystem. Version 1.0.0 blev udgivet den 11. februar 2017. Mens referenceimplementeringen kører på enkelte enheder, kan TensorFlow køre på flere CPU'er og GPU'er (med valgfri CUDA- og SYCL-udvidelser til generel beregning på grafikbehandlingsenheder). TensorFlow er tilgængelig på 64-bit Linux, macOS, Windows og mobile computerplatforme inklusive Android og iOS. Dens fleksible arkitektur giver mulighed for nem implementering af beregning på tværs af forskellige platforme (CPU'er, GPU'er, TPU'er) og fra desktops til klynger af servere til mobile enheder og edge-enheder. TensorFlow-beregninger udtrykkes som stateful dataflowgrafer. Navnet TensorFlow stammer fra de operationer, som sådanne neurale netværk udfører på multidimensionelle dataarrays, der kaldes tensorer. Under Google I/O-konferencen i juni 2016 sagde Jeff Dean, at 1,500 arkiver på GitHub nævnte TensorFlow, hvoraf kun 5 var fra Google. I december 2017 introducerede udviklere fra Google, Cisco, RedHat, CoreOS og CaiCloud Kubeflow på en konference. Kubeflow tillader drift og implementering af TensorFlow på Kubernetes. I marts 2018 annoncerede Google TensorFlow.js version 1.0 til maskinlæring i JavaScript. I januar 2019 annoncerede Google TensorFlow 2.0. Den blev officielt tilgængelig i september 2019. I maj 2019 annoncerede Google TensorFlow Graphics til dyb læring i computergrafik.

For at gøre dig nærmere bekendt med certificeringspensum kan du udvide og analysere nedenstående tabel.

EITC/AI/TFF TensorFlow Fundamentals Certification Curriculum refererer til didaktisk materiale med åben adgang i en videoform. Læreprocessen er opdelt i en trin-for-trin struktur (programmer -> lektioner -> emner), der dækker relevante læseplansdele. Der tilbydes også ubegrænset rådgivning med domæneeksperter.
Tjek for detaljer om certificeringsproceduren Sådan fungerer det.

Læs mere
Ingen kommentarer
  • 1
  • 2
Forside » Programmer

Certificeringscenter

BRUGERMENU

  • Mine reservationer

CERTIFIKATKATEGORI

  • EITC-certificering (105)
  • EITCA-certificering (9)

Hvad leder du efter?

  • Introduktion
  • Hvordan det virker?
  • EITCA akademier
  • EITCI DSJC-tilskud
  • Fuldt EITC-katalog
  • Din ordre
  • Udvalgt
  •   IT ID
  • Om
  • Kontakt

    EITCA Akademiets administrative kontor

    Europæisk IT-certificeringsinstitut
    Bruxelles, Belgien, Den Europæiske Union

    EITC/EITCA Certification Authority
    Gældende europæisk it-certificeringsstandard
    Adgang kontaktformular eller opkald + 32 25887351

    13 dage siden #EITC/WD/WPF WordPress Fundamentals-certifikat (en del af #EITCA/WD) attesterer ekspertise i #WordPress CMS, i... https://t.co/A2jjXPeKgj
    Følg @EITCI

    Oversæt automatisk til dit sprog

    Vilkår & Betingelser | Privatlivspolitik
    Følg @EITCI
    EITCA Academy
    • EITCA Academy på sociale medier
    EITCA Academy


    © 2008-2023  Europæisk IT-certificeringsinstitut
    Bruxelles, Belgien, Den Europæiske Union

    TOP
    Chat med support
    Chat med support
    Spørgsmål, tvivl, problemer? Vi er her for at hjælpe dig!
    Afslut chat
    Tilslutning ...
    Har du et spørgsmål? Spørg os!
    Har du et spørgsmål? Spørg os!
    :
    :
    :
    Send
    Har du et spørgsmål? Spørg os!
    :
    :
    Start chat
    Chat-sessionen er afsluttet. Tak skal du have!
    Bedøm den support, du har modtaget.
    god Bad