EITC/IS/WSA Windows Server Administration
EITC/IS/WSA Windows Server Administration er det europæiske IT-certificeringsprogram for administration og sikkerhedsstyring i Windows Server, et Microsofts førende netværksoperativsystem til servere.
Læseplanen for EITC/IS/WSA Windows Server Administration fokuserer på viden og praktiske færdigheder i administration og sikkerhedsstyring i Microsoft Windows Server organiseret i følgende struktur, omfattende omfattende videodidaktisk indhold som reference for denne EITC-certificering.
Windows Server er et varemærke for en gruppe af serveroperativsystemer udgivet af Microsoft siden 2003. Efter Linux er det et af de mest populære operativsystemer til netværksservere. Det inkluderer Active Directory, DNS-server, DHCP-server, gruppepolitik samt mange andre populære funktioner til avancerede netværksservere. I modsætning til Linux (det mest populære operativsystem til servere), er Microsoft Windows Server ikke open source, men en proprietær software.
Siden 2003 har Microsoft udgivet en række serveroperativsystemer under Windows Server-varenavnet. Windows Server 2003 var den første Windows-serverudgave, der blev tilbudt under dette mærke. Windows NT 3.1 Advanced Server var den første serverudgave, efterfulgt af Windows NT 3.5 Server, Windows NT 3.51 Server, Windows NT 4.0 Server og Windows 2000 Server. Active Directory, DNS Server, DHCP Server, Group Policy og mange andre populære funktioner blev inkluderet i Windows 2000 Server for første gang.
Microsoft yder typisk ti års support til Windows Server med fem års almindelig support og yderligere fem års udvidet support. Disse udgaver inkluderer også en omfattende desktop-oplevelse med grafisk brugergrænseflade (GUI). Server Core og Nano Server-varianter blev introduceret med Windows Server 2008 R2 for at reducere OS-fodaftrykket. For at skelne disse opdateringer fra halvårlige udgivelser omtalte Microsoft dem som "langsigtede serviceudgivelser" mellem 2015 og 2021. (se nedenfor).
Microsoft har udgivet en større version af Windows Server hvert fjerde år i de sidste seksten år, med en mindre version udgivet to år efter en større udgivelse. Suffikset "R2" blev tilføjet til titlerne på de mindre versioner. Microsoft overtrådte dette mønster i oktober 2018, da det udgav Windows Server 2019, som skulle være "Windows Server 2016 R2." Derudover er Windows Server 2022 en lille forbedring i forhold til den tidligere version.
Følgende er inkluderet i de fulde udgivelser:
- Windows Server 2003 er et serveroperativsystem (april 2003)
- Windows Server 2003 R2 er en version af Windows Server 2003. (december 2005)
- Windows Server 2008 er et serveroperativsystem udviklet af Microsoft (februar 2008)
- Windows Server 2008 R2 er den seneste version af Windows Server (oktober 2009)
- Windows Server 2012 er et serveroperativsystem (september 2012)
- Windows Server 2012 R2 er den seneste version af Windows Server (oktober 2013)
2016 er den seneste version af Windows Server (september 2016) - Windows Server 2019 er den seneste version af Windows Server (oktober 2018)
- Microsoft Windows Server 2022 (august 2021)
Hovedfunktionerne i Windows Server inkluderer:
- Sikkerhed med flere beskyttelseslag: forbedring af organisationens sikkerhedsposition ved at starte med operativsystemet.
- Azures hybride muligheder: øge it-effektiviteten ved at udvide datacentre til Azure.
- Platform til en række applikationer: Giver udviklere og it-professionelle de værktøjer, de har brug for til at skabe og implementere en række apps ved hjælp af en applikationsplatform.
- Integration med Azure: Valgmuligheder som Azure Hybrid Benefit og Extended Security Updates er tilgængelige.
Microsofts Active Directory (AD) er en bibliotekstjeneste til Windows-domænetværk. En Active Directory-domænecontroller godkender og autoriserer alle brugere og computere i et Windows-domænetværk, samt tildeler og håndhæver sikkerhedspolitikker og installerer eller opgraderer software. Et skema beskriver den slags objekter, der kan gemmes i en Active Directory-database, samt de kvaliteter og information, som objekterne repræsenterer. En skov er en gruppe af træer, der deler et globalt katalog, biblioteksskema, logisk struktur og bibliotekskonfiguration. Et træ er en samling af et eller flere domæner forbundet i et transitivt tillidshierarki i et kontinuerligt navneområde. Et domæne er en logisk samling af objekter (computere, brugere og enheder), der deler en Active Directory-database. DNS-navnestrukturen, som er Active Directory-navneområdet, bruges til at identificere domæner. Brugere på ét domæne kan få adgang til ressourcer på et andet domæne takket være trusts. Når et underordnet domæne oprettes, oprettes der automatisk tillidsforhold mellem det overordnede og underordnede domæne. Domænecontrollere er servere, der er konfigureret med Active Directory Domain Services-rollen og er vært for en Active Directory-database for et specifikt domæne. Websteder er grupper af indbyrdes forbundne undernet på et bestemt geografisk sted. Ændringer foretaget på én domænecontroller replikeres til alle andre domænecontrollere, der deler den samme Active Directory-database (det vil sige inden for det samme domæne). Knowledge Consistency Checker-tjenesten (KCC) administrerer trafik ved at skabe en replikeringstopologi af webstedslinks baseret på de definerede websteder. Ændringsmeddelelse aktiverer domænecontrollere til at starte en pull-replikeringscyklus, hvilket resulterer i hyppig og automatisk intrasite-replikering. Intersite-replikeringsintervaller er normalt kortere og afhængige af den tid, der er gået, snarere end på ændringsmeddelelse. Mens de fleste domæneopdateringer kan udføres på enhver domænecontroller, kan nogle aktiviteter kun udføres på en bestemt server. Disse servere omtales som "operation masters" (oprindeligt Flexible Single Master Operations eller FSMO'er). Schema Master, Domain Naming Master, PDC Emulator, RID Master og Infrastructure Master er operations master positionerne. Et domænes eller skovs funktionsniveau bestemmer, hvilke avancerede funktioner der er tilgængelige i skoven eller domænet. For Windows Server 2016 og 2019 tilbydes forskellige funktionsniveauer. Alle domænecontrollere bør konfigureres til at give det højeste funktionsniveau for skove og domæner. Til administrative formål bruges containere til at gruppere Active Directory-objekter. Domænet, Indbygget, Brugere, Computere og Domænecontrollere er standardbeholderne. Organisationsenheder (OU'er) er objektbeholdere, der bruges til at levere et administrativt hierarki til et domæne. De understøtter både administrativ delegering og implementeringen af gruppepolitikobjekter. Active Directory-databasen bruges i et domæne til at godkende brugere og computere for alle domænets computere og brugere. En arbejdsgruppe er en alternativ opsætning, hvor hver maskine er ansvarlig for at godkende sine egne brugere. Alle maskiner i domænet har adgang til domænekonti, som vedligeholdes i Active Directory-databasen. Hver lokal computers SAM-database (Security Account Manager) gemmer lokale konti, som kun er tilgængelige for den pågældende computer. Distributionsgrupper og sikkerhedsgrupper er de to typer brugergrupper, der understøttes af Active Directory. E-mail-applikationer, såsom Microsoft Exchange, bruger distributionsgrupper. Brugerkonti er grupperet i sikkerhedsgrupper med det formål at anvende privilegier og tilladelser. Omfanget af Active Directory-grupper kan indstilles til Universal, Global eller Domain Local. Enhver konto i skoven kan være medlem af en universel gruppe, som kan tildeles enhver ressource i skoven. Enhver konto i domænet kan være medlem af en global gruppe, og de kan allokeres til enhver ressource i skoven. Enhver konto i skoven kan være medlem af en lokal domænegruppe, som kan allokeres til enhver domæneressource. Andre universelle grupper og globale grupper fra skoven kan findes i universelle grupper. Globale grupper fra samme domæne kan indeholde yderligere globale grupper. Lokale domænegrupper kan indeholde både universelle skovgrupper og globale grupper samt domænelokale grupper fra samme domæne. Microsoft anbefaler at bruge globale grupper til at organisere brugere og lokale domænegrupper for at arrangere ressourcer til styring af konti og ressourcer.
For at gøre dig nærmere bekendt med certificeringspensum kan du udvide og analysere nedenstående tabel.
EITC/IS/WSA Windows Server Administration Certification Curriculum refererer til didaktisk materiale med åben adgang i en videoform. Læreprocessen er opdelt i en trin-for-trin struktur (programmer -> lektioner -> emner), der dækker relevante læseplansdele. Der tilbydes også ubegrænset rådgivning med domæneeksperter.
Tjek for detaljer om certificeringsproceduren Sådan fungerer det.
EITC/IS/LSA Linux Systemadministration
EITC/IS/LSA Linux System Administration er det europæiske it-certificeringsprogram for administration og sikkerhedsstyring i Linux, et open source-netværksoperativsystem, der ofte bruges på servere med en verdensomspændende førende position.
Læseplanen for EITC/IS/LSA Linux System Administration fokuserer på viden og praktiske færdigheder inden for administration og sikkerhedsstyring i Linux organiseret inden for følgende struktur, der omfatter omfattende videodidaktisk indhold som reference for denne EITC-certificering.
Linux er en samling af open source Unix-lignende operativsystemer, som generelt accepteres som en førende standard for netværksservere operativsystemer, baseret på Linus Torvalds' Linux-kerne, som oprindeligt blev udgivet i 1991. Linux-kernen, samt medfølgende systemsoftware og biblioteker, er almindeligvis bundtet i en Linux-distribution, hvor mange af dem er licenseret under GNU-projektet. Selvom mange Linux-distributioner bruger udtrykket "Linux", foretrækker Free Software Foundation udtrykket "GNU/Linux" for at understrege betydningen af GNU-software.
Debian, Fedora og Ubuntu er alle populære Linux-distributioner. Red Hat Enterprise Linux og SUSE Linux Enterprise Server er to kommercielle distributioner. Et vinduessystem som X11 eller Wayland, såvel som et skrivebordsmiljø som GNOME eller KDE Plasma, er inkluderet i desktop Linux-distributioner. Serverdistributioner kan inkludere grafik eller ikke inkludere en løsningsstack såsom LAMP. Enhver kan producere en distribution til ethvert formål, fordi Linux er en frit omdistribuerbar open source-software.
Linux blev skabt til Intels x86-arkitektur-baserede personlige computere, men det er efterfølgende blevet porteret til flere platforme end noget andet operativsystem. Linux har den største installerede base af alle generelle operativsystemer på grund af dominansen af den Linux-baserede Android på smartphones. På trods af det faktum, at Linux kun bruges af kun 2.3 procent af stationære computere, dominerer Chromebook, som kører det Linux-kernebaserede Chrome OS, det amerikanske K-12 uddannelsesmarked og tegner sig for omkring 20 % af alt salg af bærbare computere under 300 USD. . Linux er det mest populære styresystem til servere (ca. 96.4 procent af top 1 million webservere kører Linux), såvel som andre store jernsystemer som mainframe-computere og TOP500-supercomputere (siden november 2017, efterhånden at have elimineret alle konkurrenter).
Linux er også tilgængelig til indlejrede systemer, som er enheder, hvis operativsystem ofte er indbygget i firmwaren og er meget tilpasset systemet. Routere, automatiseringsstyringer, smart home-teknologi, fjernsyn (Samsung og LG Smart TV bruger henholdsvis Tizen og WebOS), biler (Tesla, Audi, Mercedes-Benz, Hyundai og Toyota bruger alle Linux), digitale videooptagere, videospilkonsoller , og smartwatches er alle eksempler på Linux-baserede enheder. Avionikken i Falcon 9 og Dragon 2 er baseret på en tilpasset version af Linux.
Linux er et af de mest kendte eksempler på gratis og open source softwaresamarbejde. I henhold til reglerne for dets individuelle licenser, såsom GNU General Public License, kan kildekoden bruges, opdateres og distribueres kommercielt eller ikke-kommercielt af enhver.
Linux-kernen blev ikke designet, men snarere udviklet gennem naturlig udvælgelse, ifølge flere open source-udviklere. Selvom Unix-arkitekturen fungerede som et stillads, mener Torvalds, at "Linux udviklede sig med en masse mutationer - og fordi mutationerne var mindre end tilfældige, var de hurtigere og mere rettede end alfa-partikler i DNA." De revolutionære egenskaber ved Linux er ifølge Eric S. Raymond sociale snarere end tekniske: før Linux blev sofistikeret software møjsommeligt bygget af små grupper, men "Linux voksede op på en meget anderledes måde. Den blev hacket på næsten uforvarende fra starten af store grupper af frivillige, som udelukkende kommunikerede via internettet. Den dumt simple teknik med at udgive hver uge og modtage input fra hundredvis af brugere inden for få dage, hvilket genererer en form for hurtig darwinistisk udvælgelse af mutationer bragt af udviklere, snarere end strenge standarder eller diktatur, blev brugt til at bevare kvaliteten." "Linux blev ikke designet, det udviklede sig," siger Bryan Cantrill, en ingeniør for et konkurrerende OS, men han ser dette som en begrænsning og hævder, at nogle funktioner, især dem, der er relateret til sikkerhed, ikke kan udvikles til, fordi "dette er ikke Det er ikke et biologisk system i sidste ende, det er et softwaresystem." Et Linux-baseret system er et modulært Unix-lignende operativsystem, der henter meget af sin arkitektoniske inspiration fra Unix-principper udviklet i 1970'erne og 1980'erne. En monolitisk kerne, Linux-kernen, bruges i et sådant system til at håndtere proceskontrol, netværk, perifer adgang og filsystemer. Enhedsdrivere er enten indbygget i kernen direkte eller tilføjet som moduler, der indlæses, mens systemet kører.
GNU-brugerlandet er et vigtigt træk ved de fleste Linux-baserede systemer, med Android som en undtagelse. Værktøjskæden er en bred samling af programmeringsværktøjer, der er afgørende for Linux-udvikling (inklusive de kompilatorer, der bruges til at bygge selve Linux-kernen), og coreutils implementerer mange grundlæggende Unix-værktøjer. Projektets implementering af C-biblioteket fungerer som en indpakning for Linux-kernens systemopkald, der er nødvendige for kerne-brugerpladsgrænsefladen, værktøjskæden er en bred samling af programmeringsværktøjer, der er afgørende for Linux-udvikling (inklusive kompilatorerne, der bruges til at bygge selve Linux-kernen) , og coreutils implementerer mange grundlæggende Unix-værktøjer. Bash, en populær CLI-skal, er også udviklet som en del af projektet. De fleste Linux-systemers grafiske brugergrænseflade (eller GUI) er baseret på en implementering af X Window System. For nylig har Linux-fællesskabet arbejdet på at erstatte X11 med Wayland som erstatningsskærmserverprotokol. Linux-systemer drager fordel af adskillige andre open source-softwareinitiativer.
Et Linux-systems installerede komponenter inkluderer følgende:
- GNU GRUB, LILO, SYSLINUX eller Gummiboot er eksempler på bootloadere. Dette er en software, der kører, når computeren tændes, og efter firmwareinitialiseringen for at indlæse Linux-kernen i computerens hovedhukommelse.
- Et init-program, såsom sysvinit eller det nyere systemd, OpenRC eller Upstart. Dette er den indledende proces startet af Linux-kernen, og den sidder øverst i procestræet; init er med andre ord, hvor alle andre processer starter. Det starter opgaver som systemtjenester og login-prompter (uanset om det er grafisk eller i terminaltilstand).
- Softwarebiblioteker er samlinger af kode, der kan bruges af andre programmer. Den dynamiske linker, der håndterer brugen af dynamiske biblioteker på Linux-systemer, der anvender eksekverbare filer i ELF-format, er kendt som ld-linux.so. Hvis systemet er sat op, så brugeren selv kan generere applikationer, vil header-filer blive inkluderet for at beskrive de installerede bibliotekers grænseflade. Bortset fra GNU C Library (glibc), som er det mest udbredte softwarebibliotek på Linux-systemer, er der andre flere biblioteker, såsom SDL og Mesa.
- GNU C-biblioteket er standard C-standardbiblioteket, som er påkrævet for at køre C-programmer på et computersystem. Alternativer til indlejrede systemer er blevet udviklet, inklusive musl, EGLIBC (en glibc-klon, der oprindeligt blev brugt af Debian) og uClibc (bygget til uClinux), men de sidste to vedligeholdes ikke længere. Bionic, Androids eget C-bibliotek, bruges.
- GNU coreutils er standardimplementeringen af grundlæggende Unix-kommandoer. For indlejrede enheder er der alternativer såsom copyleft BusyBox og BSD-licenseret Toybox.
- Widget-værktøjssæt er biblioteker til at skabe softwareapplikationers grafiske brugergrænseflader (GUI'er). GTK og Clutter, skabt af GNOME-projektet, Qt, udviklet af Qt-projektet og ledet af The Qt Company, og Enlightenment Foundation Libraries (EFL), der hovedsageligt vedligeholdes af Enlightenment-teamet, er blandt de tilgængelige widgetværktøjssæt.
- Et pakkehåndteringssystem, såsom dpkg eller RPM, bruges til at administrere pakker. Pakker kan også bygges fra kilde-tarballs eller binære tarballs.
- Kommandoskaller og vinduesmiljøer er eksempler på brugergrænsefladeprogrammer.
Brugergrænsefladen, ofte kendt som skallen, er typisk en kommandolinjegrænseflade (CLI), en grafisk brugergrænseflade (GUI) eller kontroller koblet til den medfølgende hardware. Den typiske brugergrænseflade på stationære pc'er er normalt grafisk, mens CLI ofte er tilgængelig via terminalemulatorvinduer eller en separat virtuel konsol.
Tekstbaserede brugergrænseflader eller CLI-skaller anvender tekst til både input og output. Bourne-Again Shell (bash), som blev skabt til GNU-projektet, er den mest udbredte shell under Linux. CLI'en bruges udelukkende af de fleste Linux-komponenter på lavt niveau, inklusive forskellige dele af brugerlandet. CLI er særligt velegnet til at automatisere gentagne eller forsinkede operationer, og det giver mulighed for relativt let kommunikation mellem processer.
GUI-skallerne, pakket med fulde desktop-miljøer såsom KDE Plasma, GNOME, MATE, Cinnamon, LXDE, Pantheon og Xfce, er de mest populære brugergrænseflader på desktop-systemer, mens der findes en række andre brugergrænseflader. X Window System, også kendt som "X", understøtter de fleste populære brugergrænseflader. Det muliggør netværksgennemsigtighed ved at tillade, at en grafisk applikation, der opererer på én maskine, vises på en anden, hvor en bruger kan interagere med den; nogle X Window System-udvidelser er dog ikke i stand til at fungere over netværket. Der er flere X display-servere, hvoraf den mest populære er X.Org Server, som er referenceimplementeringen.
Serverdistributioner kan give en kommandolinjegrænseflade til udviklere og administratorer, men kan også omfatte en skræddersyet grænseflade til slutbrugere, der er skræddersyet til systemets use-case. Denne brugerdefinerede grænseflade tilgås via en klient, der kører på et andet system, som ikke nødvendigvis er Linux-baseret.
For X11 er der flere typer vinduesadministratorer, herunder fliselægning, dynamisk, stabling og sammensætning. Vinduesadministratorer interagerer med X Window System og giver dig mulighed for at kontrollere placeringen og udseendet af individuelle programvinduer. Simpler X-vindueadministratorer som dwm, ratpoison, i3wm eller herbstluftwm har en minimalistisk grænseflade, hvorimod mere komplekse vinduesadministratorer som FVWM, Enlightenment eller Window Maker inkluderer yderligere funktioner som en indbygget proceslinje og temaer, men er stadig lette sammenlignet med skrivebordsmiljøer. Vinduesadministratorer såsom Mutter (GNOME), KWin (KDE) og Xfwm (xfce) er inkluderet i de fleste desktopmiljøers grundlæggende installationer, men brugere kan vælge at bruge en anden vindueshåndtering, hvis de foretrækker det.
Wayland er en skærmserverprotokol, der blev designet til at erstatte X11-protokollen, men den har endnu ikke fået udbredt brug fra 2014. Wayland kræver, i modsætning til X11, ikke en ekstern vinduesmanager eller sammensætningsmanager. Som et resultat fungerer en Wayland-kompositor som en skærmserver, vinduesmanager og sammensætningsmanager alt i én. Waylands referenceimplementering er Weston, selvom Mutter og KWin fra GNOME og KDE bliver konverteret til Wayland som selvstændige skærmservere. Siden version 19 er Enlightenment blevet overført med succes.
For at gøre dig nærmere bekendt med certificeringspensum kan du udvide og analysere nedenstående tabel.
EITC/IS/LSA Linux System Administration Certification Curriculum refererer til didaktisk materiale med åben adgang i en videoform. Læreprocessen er opdelt i en trin-for-trin struktur (programmer -> lektioner -> emner), der dækker relevante læseplansdele. Der tilbydes også ubegrænset rådgivning med domæneeksperter.
Tjek for detaljer om certificeringsproceduren Sådan fungerer det.
EITC/IS/CNF Computer Networking Fundamentals
EITC/IS/CNF Computer Networking Fundamentals er det europæiske IT-certificeringsprogram om teori og praktiske aspekter af grundlæggende computernetværk.
Læseplanen for EITC/IS/CNF Computer Networking Fundamentals fokuserer på viden og praktiske færdigheder i fundamenter i computernetværk organiseret inden for følgende struktur, der omfatter omfattende videodidaktisk indhold som reference for denne EITC-certificering.
Et computernetværk er en samling af computere, der deler ressourcer mellem netværksknuder. For at kommunikere med hinanden bruger computerne standardkommunikationsprotokoller på tværs af digitale forbindelser. Telekommunikationsnetværksteknologier baseret på fysisk kablede, optiske og trådløse radiofrekvenssystemer, der kan samles i en række netværkstopologier, udgør disse sammenkoblinger. Personlige computere, servere, netværkshardware og andre specialiserede eller generelle værter kan alle være noder i et computernetværk. Netværksadresser og værtsnavne kan bruges til at identificere dem. Værtsnavne fungerer som etiketter, der er lette at huske for noder, og de ændres sjældent, efter at de er tildelt. Kommunikationsprotokoller såsom internetprotokollen bruger netværksadresser til at lokalisere og identificere noder. Sikkerhed er et af de mest kritiske aspekter af netværk. Disse EITC-pensum dækker grundlaget for computernetværk.
Et computernetværk er en samling af computere, der deler ressourcer mellem netværksknuder. For at kommunikere med hinanden bruger computerne standardkommunikationsprotokoller på tværs af digitale forbindelser. Telekommunikationsnetværksteknologier baseret på fysisk kablede, optiske og trådløse radiofrekvenssystemer, der kan samles i en række netværkstopologier, udgør disse sammenkoblinger. Personlige computere, servere, netværkshardware og andre specialiserede eller generelle værter kan alle være noder i et computernetværk. Netværksadresser og værtsnavne kan bruges til at identificere dem. Værtsnavne fungerer som etiketter, der er lette at huske for noder, og de ændres sjældent, efter at de er tildelt. Kommunikationsprotokoller såsom internetprotokollen bruger netværksadresser til at lokalisere og identificere noder. Sikkerhed er et af de mest kritiske aspekter af netværk.
Transmissionsmediet, der bruges til at formidle signaler, båndbredde, kommunikationsprotokoller til at organisere netværkstrafik, netværksstørrelse, topologi, trafikkontrolmekanisme og organisatoriske mål er alle faktorer, der kan bruges til at klassificere computernetværk.
Adgang til World Wide Web, digital video, digital musik, delt brug af applikations- og lagringsservere, printere og faxmaskiner og brug af e-mail- og instant messaging-programmer er alle understøttet via computernetværk.
Et computernetværk bruger flere teknologier såsom e-mail, instant messaging, online chat, lyd- og videotelefonsamtaler og videokonferencer til at udvide interpersonelle forbindelser via elektroniske midler. Et netværk gør det muligt at dele netværk og computerressourcer. Brugere kan få adgang til og bruge netværksressourcer såsom at udskrive et dokument på en delt netværksprinter eller få adgang til og bruge et delt lagerdrev. Et netværk giver autoriserede brugere adgang til oplysninger, der er gemt på andre computere på netværket, ved at overføre filer, data og andre former for information. For at fuldføre opgaver udnytter distribueret databehandling computerressourcer spredt over et netværk.
Pakkemode-transmission bruges af de fleste nuværende computernetværk. Et pakkekoblet netværk transporterer en netværkspakke, som er en formateret dataenhed.
Kontrolinformation og brugerdata er de to typer data i pakker (nyttelast). Kontrolinformationen omfatter information såsom kilde- og destinationsnetværksadresser, fejldetekteringskoder og sekvensinformation, som netværket har brug for for at overføre brugerdata. Kontroldata er typisk inkluderet i pakkeheadere og trailere med nyttelastdata i midten.
Båndbredden af transmissionsmediet kan bedre deles mellem brugere, der bruger pakker, end med kredsløbskoblede netværk. Når en bruger ikke transmitterer pakker, kan forbindelsen fyldes med pakker fra andre brugere, så omkostningerne kan deles med minimal forstyrrelse, så længe linket ikke misbruges. Ofte er den vej, en pakke skal tage gennem et netværk, ikke tilgængelig lige nu. I dette tilfælde er pakken i kø og vil ikke blive sendt, før et link bliver tilgængeligt.
Pakkenetværks fysiske forbindelsesteknologier begrænser ofte pakkestørrelsen til en specifik maksimal transmissionsenhed (MTU). En større besked kan brydes, før den overføres, og pakkerne samles igen for at danne den originale besked, når de ankommer.
Topologier af fælles netværk
De fysiske eller geografiske placeringer af netværksknuder og links har ringe indflydelse på et netværk, men arkitekturen af et netværks sammenkoblinger kan have en betydelig indflydelse på dets gennemstrømning og pålidelighed. En enkelt fejl i forskellige teknologier, såsom bus- eller stjernenetværk, kan få hele netværket til at svigte. Generelt gælder det, at jo flere sammenkoblinger et netværk har, jo mere stabilt er det; alligevel, jo dyrere er det at sætte op. Som et resultat er de fleste netværksdiagrammer organiseret i henhold til deres netværkstopologi, som er et kort over netværksværters logiske relationer.
Følgende er eksempler på almindelige layouts:
Alle noder i et busnetværk er forbundet til et fælles medie via dette medie. Dette var den originale Ethernet-konfiguration, kendt som 10BASE5 og 10BASE2. På datalinklaget er dette stadig en udbredt arkitektur, selvom nuværende fysiske lagvarianter bruger punkt-til-punkt-links til at bygge en stjerne eller et træ i stedet for.
Alle noder er forbundet til en central node i et stjernenetværk. Dette er den almindelige konfiguration i et lille switchet Ethernet LAN, hvor hver klient forbinder til en central netværksswitch, og logisk i et trådløst LAN, hvor hver trådløs klient forbinder til det centrale trådløse adgangspunkt.
Hver knude er forbundet til dens venstre og højre naboknudepunkt og danner et ringnetværk, hvori alle knudepunkter er forbundet, og hver knude kan nå den anden knude ved at krydse knudepunkter til venstre eller højre. Denne topologi blev brugt i token ring netværk og Fiber Distributed Data Interface (FDDI).
Mesh-netværk: hver node er forbundet med et vilkårligt antal naboer på en sådan måde, at hver node har mindst én gennemløb.
Hver node i netværket er forbundet med hver anden node i netværket.
Noderne i et trænetværk er arrangeret i en hierarkisk rækkefølge. Med flere switches og ingen redundant meshing er dette den naturlige topologi for et større Ethernet-netværk.
Den fysiske arkitektur af et netværks noder repræsenterer ikke altid netværkets struktur. FDDI's netværksarkitektur er for eksempel en ring, men den fysiske topologi er ofte en stjerne, fordi alle nærliggende forbindelser kan dirigeres gennem et enkelt fysisk sted. Men fordi almindelige kanaler og udstyrsplaceringer kan repræsentere enkelte fejlpunkter på grund af bekymringer som brande, strømafbrydelser og oversvømmelser, er den fysiske arkitektur ikke helt meningsløs.
Overlay netværk
Et virtuelt netværk, der er etableret oven på et andet netværk, er kendt som et overlejringsnetværk. Virtuelle eller logiske links forbinder overlejringsnetværkets noder. Hvert link i det underliggende netværk svarer til en sti, der kan passere via flere fysiske links. Overlejringsnetværkets topologi kan (og gør det ofte) forskellig fra det underliggende netværks. Mange peer-to-peer-netværk er for eksempel overlay-netværk. De er sat op som noder i et virtuelt netværk af links, der kører over internettet.
Overlay-netværk har eksisteret siden begyndelsen af netværk, hvor computersystemer var forbundet på tværs af telefonlinjer via modemer, før der var et datanetværk.
Internettet er det mest synlige eksempel på et overlejringsnetværk. Internettet blev oprindeligt designet som en forlængelse af telefonnettet. Selv i dag tillader et underliggende netværk af undernetværk med vidt forskellige topologier og teknologi hver internetknude at kommunikere med næsten enhver anden. Metoderne til at kortlægge et fuldt forbundet IP-overlay-netværk til dets underliggende netværk omfatter adresseopløsning og routing.
En distribueret hash-tabel, som kortlægger nøgler til netværksknuder, er et andet eksempel på et overlejringsnetværk. Det underliggende netværk i dette tilfælde er et IP-netværk, og overlejringsnetværket er en nøgleindekseret tabel (virkelig et kort).
Overlay-netværk er også blevet foreslået som en teknik til at forbedre internet-routing, såsom ved at sikre streamingmedier af højere kvalitet gennem kvalitetssikring af service. Tidligere forslag som IntServ, DiffServ og IP Multicast har ikke fået meget indpas, på grund af det faktum, at de kræver, at alle routere i netværket skal ændres. På den anden side, uden hjælp fra internettjenesteudbydere, kan et overlay-netværk trinvist installeres på slut-værter, der kører overlay-protokolsoftwaren. Overlay-netværket har ingen indflydelse på, hvordan pakker dirigeres mellem overlay-noder i det underliggende netværk, men det kan regulere rækkefølgen af overlay-noder, som en besked passerer igennem, før den når sin destination.
Forbindelser til internettet
Elektrisk kabel, optisk fiber og ledig plads er eksempler på transmissionsmedier (også kendt som det fysiske medium), der bruges til at forbinde enheder for at etablere et computernetværk. Softwaren til at håndtere medier er defineret på lag 1 og 2 i OSI-modellen - det fysiske lag og datalinklaget.
Ethernet refererer til en gruppe teknologier, der bruger kobber- og fibermedier i lokalnetværksteknologi (LAN). IEEE 802.3 definerer medie- og protokolstandarder, der tillader netværksenheder at kommunikere over Ethernet. Radiobølger bruges i nogle trådløse LAN-standarder, hvorimod infrarøde signaler bruges i andre. Strømkablet i en bygning bruges til at transportere data i elledningskommunikation.
I computernetværk anvendes følgende kablede teknologier.
Koaksialkabel bruges ofte til lokale netværk i kabel-tv-systemer, kontorbygninger og andre arbejdspladser. Transmissionshastigheden varierer mellem 200 millioner bits i sekundet og 500 millioner bits i sekundet.
ITU-T G.hn-teknologien skaber et lokalt netværk med høj hastighed ved hjælp af eksisterende husledninger (koaksialkabel, telefonlinjer og elledninger).
Kablet Ethernet og andre standarder anvender parsnoede kabler. Det består normalt af fire par kobberledninger, der kan bruges til at overføre både tale og data. Krydstale og elektromagnetisk induktion reduceres, når to ledninger snoes sammen. Overførselshastigheden varierer fra 2 til 10 gigabit per sekund. Der er to typer parsnoede kabler: uskærmet parsnoet (UTP) og skærmet parsnoet (STP) (STP). Hver formular er tilgængelig i en række kategoriklassificeringer, så den kan bruges i en række forskellige situationer.
Røde og blå linjer på et verdenskort
Undersøiske fiberoptiske telekommunikationslinjer er afbildet på et kort fra 2007.
En glasfiber er en optisk fiber. Den bruger lasere og optiske forstærkere til at transmittere lysimpulser, der repræsenterer data. Optiske fibre giver flere fordele i forhold til metallinjer, herunder minimalt transmissionstab og modstandsdygtighed over for elektrisk interferens. Optiske fibre kan samtidigt bære adskillige strømme af data om forskellige bølgelængder af lys ved hjælp af tæt bølgedelingsmultipleksing, som hæver datatransmissionshastigheden til milliarder af bits i sekundet. Optiske fibre bruges i undersøiske kabler, der forbinder kontinenter og kan bruges til lange træk af kabler, der bærer meget høje datahastigheder. Single-mode optisk fiber (SMF) og multi-mode optisk fiber (MMF) er de to primære former for fiberoptik (MMF). Single-mode fiber tilbyder fordelen ved at opretholde et sammenhængende signal over snesevis, hvis ikke hundredvis, af kilometer. Multimode fiber er billigere at terminere, men har en maksimal længde på kun et par hundrede eller endda et par snesevis af meter, afhængigt af datahastigheden og kabelkvaliteten.
Trådløse netværk
Trådløse netværksforbindelser kan dannes ved hjælp af radio eller andre elektromagnetiske kommunikationsmetoder.
Jordbaseret mikrobølgekommunikation gør brug af jordbaserede sendere og modtagere, der ligner paraboler. Mikrobølger på jorden opererer i det lave gigahertz-område, hvilket begrænser al kommunikation til line-of-sight. Relæstationerne er omkring 40 miles (64 kilometer) fra hinanden.
Satellitter, der kommunikerer gennem mikrobølger, bruges også af kommunikationssatellitter. Satellitterne er normalt i geosynkron kredsløb, som er 35,400 kilometer (22,000 miles) over ækvator. Stemme-, data- og tv-signaler kan modtages og videresendes af disse enheder, der kredser om jorden.
Adskillige radiokommunikationsteknologier bruges i cellulære netværk. Systemerne opdeler det dækkede område i flere geografiske grupper. En lav-effekt transceiver betjener hvert område.
Trådløse LAN'er anvender en højfrekvent radioteknologi, der kan sammenlignes med digital cellulær for at kommunikere. Spread spectrum-teknologi bruges i trådløse LAN'er for at tillade kommunikation mellem flere enheder på et lille rum. Wi-Fi er en type trådløs radiobølgeteknologi med åbne standarder defineret af IEEE 802.11.
Frirum optisk kommunikation kommunikerer via synligt eller usynligt lys. Linje-of-sight-udbredelse anvendes i de fleste tilfælde, hvilket begrænser den fysiske placering af forbindelsesanordninger.
Det interplanetariske internet er et radio- og optisk netværk, der udvider internettet til interplanetariske dimensioner.
RFC 1149 var en sjov aprilsnar anmodning om kommentarer til IP via Avian Carriers. I 2001 blev det omsat i praksis i det virkelige liv.
De sidste to situationer har en lang tur-retur-forsinkelse, hvilket resulterer i forsinket tovejskommunikation, men forhindrer ikke transmissionen af enorme mængder data (de kan have høj gennemstrømning).
Noder i et netværk
Netværk er konstrueret ved hjælp af ekstra basale systembygningselementer såsom netværksgrænsefladecontrollere (NIC'er), repeatere, hubs, broer, switche, routere, modemer og firewalls ud over eventuelle fysiske transmissionsmedier. Ethvert givet stykke udstyr vil næsten altid indeholde forskellige byggeklodser og således være i stand til at udføre flere opgaver.
Grænseflader til internettet
Et netværksinterfacekredsløb, der inkluderer en ATM-port.
Et hjælpekort, der fungerer som en ATM-netværksgrænseflade. Et stort antal netværksgrænseflader er forudinstalleret.
En netværksgrænsefladecontroller (NIC) er et stykke computerhardware, der forbinder en computer til et netværk og kan behandle netværksdata på lavt niveau. En forbindelse til at tage et kabel eller en antenne til trådløs transmission og modtagelse samt det relaterede kredsløb kan findes på NIC.
Hver netværksinterfacecontroller i et Ethernet-netværk har en unik Media Access Control (MAC) adresse, som normalt er gemt i controllerens permanente hukommelse. Institute of Electrical and Electronics Engineers (IEEE) vedligeholder og overvåger MAC-adressens unikke karakter for at forhindre adressekonflikter mellem netværksenheder. En Ethernet MAC-adresse er seks oktetter lang. De tre mest betydningsfulde oktetter er tildelt til NIC-producentidentifikation. Disse producenter tildeler de tre mindst signifikante oktetter af hver Ethernet-grænseflade, de bygger udelukkende ved at bruge deres tildelte præfikser.
Hubs og repeatere
En repeater er en elektronisk enhed, der accepterer et netværkssignal og renser det for uønsket støj, før det regenereres. Signalet gentransmitteres ved et højere effektniveau eller til den anden side af forhindringen, så det kan gå længere uden forringelse. Repeatere er nødvendige i de fleste parsnoede Ethernet-systemer til kabelføringer på mere end 100 meter. Repeatere kan være ti eller endda hundredvis af kilometer fra hinanden, når du bruger fiberoptik.
Repeatere arbejder på OSI-modellens fysiske lag, men de tager stadig lidt tid at regenerere signalet. Dette kan resultere i en udbredelsesforsinkelse, som kan kompromittere netværkets ydeevne og funktion. Som et resultat begrænser flere netværkstopologier, såsom Ethernet 5-4-3-reglen, antallet af repeatere, der kan bruges i et netværk.
En Ethernet-hub er en Ethernet-repeater med mange porte. En repeater-hub hjælper med netværkskollisionsdetektion og fejlisolering ud over at rekonditionere og distribuere netværkssignaler. Moderne netværksswitches har for det meste erstattet hubs og repeatere i LAN'er.
Afbrydere og broer
I modsætning til en hub videresender netværksbroer og switcher kun frames til de porte, der er involveret i kommunikationen, men en hub videresender frames til alle porte. En switch kan opfattes som en multi-port bro, fordi broer kun har to porte. Switche har typisk et stort antal porte, hvilket giver mulighed for en stjernetopologi for enheder og kaskadedannelse af yderligere switches.
Datalinklaget (lag 2) i OSI-modellen er det sted, hvor broer og switches opererer, der brobygger trafik mellem to eller flere netværkssegmenter for at danne et enkelt lokalt netværk. Begge er enheder, der videresender datarammer på tværs af porte baseret på MAC-adressen på destinationen i hver frame. Undersøgelse af kildeadresserne for modtagne frames lærer dem, hvordan de forbinder fysiske porte med MAC-adresser, og de videresender kun frames, når det er nødvendigt. Hvis enheden målretter mod en ukendt destinations-MAC, udsender den anmodningen til alle porte undtagen kilden og udleder placeringen fra svaret.
Netværkets kollisionsdomæne er opdelt af broer og switches, mens broadcast-domænet forbliver det samme. Bridging og switching hjælper med at nedbryde et enormt, overbelastet netværk i en samling af mindre, mere effektive netværk, som er kendt som netværkssegmentering.
Routere
ADSL-telefonlinjen og Ethernet-netværkskabelstikkene ses på en typisk hjemme- eller mindre virksomhedsrouter.
En router er en internetarbejdende enhed, der behandler adresserings- eller routinginformationen i pakker for at videresende dem mellem netværk. Routingtabellen bruges ofte i forbindelse med routinginformationen. En router bestemmer, hvor pakker skal sendes videre ved hjælp af sin routingdatabase i stedet for at udsende pakker, hvilket er spild for meget store netværk.
Modemer
Modemer (modulator-demodulator) forbinder netværksknuder gennem ledninger, der ikke er designet til digital netværkstrafik eller trådløs. For at gøre dette modulerer det digitale signal et eller flere bæresignaler, hvilket resulterer i et analogt signal, der kan tilpasses til at give de passende transmissionskvaliteter. Lydsignaler leveret over en konventionel telefonforbindelse blev moduleret af tidlige modemer. Modemer bruges stadig i vid udstrækning til digital subscriber line (DSL) telefonlinjer og kabel-tv-systemer, der anvender DOCSIS-teknologi.
Firewalls er netværksenheder eller software, der bruges til at kontrollere netværkssikkerhed og adgangsregler. Firewalls bruges til at adskille sikre interne netværk fra potentielt usikre eksterne netværk som internettet. Typisk er firewalls sat op til at afvise adgangsanmodninger fra ukendte kilder, mens de tillader aktiviteter fra kendte. Firewalls betydning for netværkssikkerhed vokser i takt med stigningen i cybertrusler.
Protokoller til kommunikation
Protokoller, som de relaterer til internettets lagstruktur
TCP/IP-modellen og dens relationer til populære protokoller, der bruges på forskellige niveauer.
Når en router er til stede, sænker meddelelsesstrømmene gennem protokollag, over til routeren, op i routerens stak, ned igen og videre til den endelige destination, hvor den klatrer tilbage op i routerens stak.
I nærvær af en router flyder meddelelsen mellem to enheder (AB) på de fire niveauer af TCP/IP-paradigmet (R). De røde strømme repræsenterer effektive kommunikationsveje, hvorimod de sorte stier repræsenterer faktiske netværksforbindelser.
En kommunikationsprotokol er et sæt instruktioner til at sende og modtage data via et netværk. Protokoller til kommunikation har en række egenskaber. De kan enten være forbindelsesorienterede eller forbindelsesløse, bruge kredsløbstilstand eller pakkekobling og bruge hierarkisk eller flad adressering.
Kommunikationsoperationer er opdelt i protokollag i en protokolstak, som ofte er bygget efter OSI-modellen, hvor hvert lag udnytter tjenesterne fra det underliggende, indtil det laveste lag styrer hardwaren, der transporterer information på tværs af medierne. Protokollag bruges flittigt i computernetværksverdenen. HTTP (World Wide Web-protokol), der kører over TCP over IP (internetprotokoller) over IEEE 802.11 er et godt eksempel på en protokolstak (Wi-Fi-protokollen). Når en hjemmebruger surfer på nettet, bruges denne stak mellem den trådløse router og brugerens personlige computer.
Et par af de mest almindelige kommunikationsprotokoller er listet her.
Protokoller, der er meget udbredte
Suite af internetprotokoller
Al nuværende netværk er bygget på Internet Protocol Suite, ofte kendt som TCP/IP. Det leverer både forbindelsesløse og forbindelsesorienterede tjenester over et iboende ustabilt netværk, der krydses ved hjælp af internetprotokoldatagramoverførsel (IP). Protokolpakken definerer adresserings-, identifikations- og routingstandarderne for Internet Protocol Version 4 (IPv4) og IPv6, den næste iteration af protokollen med meget udvidede adresseringsmuligheder. Internet Protocol Suite er et sæt protokoller, der definerer, hvordan internettet fungerer.
IEEE 802 er et akronym for "International Electrotechnical
IEEE 802 refererer til en gruppe af IEEE-standarder, der omhandler lokal- og storbynetværk. IEEE 802-protokolpakken tilbyder som helhed en bred vifte af netværksmuligheder. En flad adresseringsmetode anvendes i protokollerne. De arbejder for det meste på OSI-modellens lag 1 og 2.
MAC-brodannelse (IEEE 802.1D) bruger for eksempel Spanning Tree Protocol til at dirigere Ethernet-trafik. VLAN'er er defineret af IEEE 802.1Q, mens IEEE 802.1X definerer en port-baseret netværksadgangskontrolprotokol, som er grundlaget for de godkendelsesprocesser, der bruges i VLAN'er (men også i WLAN'er) — dette er, hvad hjemmebrugeren ser, når han indtaster en "trådløs adgangsnøgle."
Ethernet er en gruppe af teknologier, der bruges i kablede LAN'er. IEEE 802.3 er en samling af standarder produceret af Institute of Electrical and Electronics Engineers, der beskriver det.
LAN (trådløs)
Trådløst LAN, ofte kendt som WLAN eller WiFi, er det mest kendte medlem af IEEE 802-protokolfamilien for hjemmebrugere i dag. Den er baseret på IEEE 802.11-specifikationerne. IEEE 802.11 har meget til fælles med kablet Ethernet.
Sonet/SDH
Synchronous optical networking (SONET) og Synchronous Digital Hierarchy (SDH) er multiplekseringsteknikker, der bruger lasere til at transmittere flere digitale bitstrømme på tværs af optisk fiber. De blev skabt til at transmittere kredsløbskommunikation fra mange kilder, primært for at understøtte kredsløbskoblet digital telefoni. SONET/SDH var på den anden side en ideel kandidat til at formidle Asynchronous Transfer Mode (ATM) rammer på grund af dens protokolneutralitet og transportorienterede funktioner.
Tilstand til asynkron overførsel
Asynchronous Transfer Mode (ATM) er en teknologi til omstilling af telekommunikationsnetværk. Den koder data til små celler med fast størrelse ved hjælp af asynkron tidsmultipleksing. Dette er i modsætning til andre protokoller, der bruger pakker eller rammer med variabel størrelse, såsom Internet Protocol Suite eller Ethernet. Både kredsløbs- og pakkekoblede netværk ligner ATM. Dette gør det velegnet til et netværk, der skal administrere både data med høj kapacitet og indhold i realtid med lav latens som tale og video. ATM har en forbindelsesorienteret tilgang, hvor et virtuelt kredsløb mellem to endepunkter skal etableres, før selve datatransmissionen kan begynde.
Mens pengeautomater mister fordel til fordel for næste generations netværk, fortsætter de med at spille en rolle i den sidste mile, eller forbindelsen mellem en internetudbyder og en privat bruger.
Cellulære benchmarks
Det globale system for mobilkommunikation (GSM), General Packet Radio Service (GPRS), cdmaOne, CDMA2000, Evolution-Data Optimized (EV-DO), Enhanced Data Rates for GSM Evolution (EDGE), Universal Mobile Telecommunications System (UMTS), Digital Enhanced Cordless Telecommunications (DECT), Digital AMPS (IS-136/TDMA) og Integrated Digital Enhanced Network (IDEN) er nogle af de forskellige digitale cellulære standarder (iDEN).
Routing
Routing bestemmer de bedste veje for information til at rejse via et netværk. For eksempel er de bedste ruter fra node 1 til node 6 sandsynligvis 1-8-7-6 eller 1-8-10-6, da disse har de tykkeste stier.
Routing er processen med at identificere netværksstier til transmission af data. Mange typer netværk, herunder kredsløbskoblingsnetværk og pakkekoblede netværk, kræver routing.
Routingprotokoller dirigerer pakkevideresendelse (overførslen af logisk adresserede netværkspakker fra deres kilde til deres endelige destination) på tværs af mellemliggende noder i pakkekoblede netværk. Routere, broer, gateways, firewalls og switches er almindelige netværkshardwarekomponenter, der fungerer som mellemliggende noder. Computere til generelle formål kan også videresende pakker og udføre routing, selvom deres ydeevne kan blive forhindret på grund af deres mangel på specialhardware. Routingtabeller, som holder styr på stierne til flere netværksdestinationer, bruges ofte til at dirigere videresendelse i routingprocessen. Som følge heraf er opbygning af routingtabeller i routerens hukommelse afgørende for effektiv routing.
Der er generelt flere ruter at vælge imellem, og forskellige faktorer kan tages i betragtning, når det besluttes, hvilke ruter der skal tilføjes til rutetabellen, såsom (ordnet efter prioritet):
Længere undernetmasker er ønskelige i dette tilfælde (uafhængigt om det er inden for en routingprotokol eller over en anden routingprotokol)
Når en billigere metrik/omkostning foretrækkes, omtales dette som en metrik (kun gyldig inden for en og samme routingprotokol)
Når det kommer til administrativ afstand, ønskes en kortere afstand (gælder kun mellem forskellige routingprotokoller)
Langt de fleste routingalgoritmer anvender kun én netværkssti ad gangen. Flere alternative stier kan bruges med flervejs routingalgoritmer.
I sin forestilling om, at netværksadresser er strukturerede, og at sammenlignelige adresser betyder nærhed i hele netværket, bliver routing i en mere restriktiv forstand nogle gange kontrasteret med brobygning. Et enkelt routingtabelelement kan angive ruten til en samling af enheder ved hjælp af strukturerede adresser. Struktureret adressering (routing i begrænset forstand) overgår ustruktureret adressering i store netværk (bridging). På internettet er routing blevet den mest anvendte metode til adressering. I isolerede situationer er brobygning stadig almindeligt anvendt.
De organisationer, der ejer netværkene, er normalt ansvarlige for at administrere dem. Intranet og ekstranet kan bruges i private firmanetværk. De kan også give netværksadgang til internettet, som er et globalt netværk uden en enkelt ejer og i det væsentlige ubegrænset forbindelse.
Intranet
Et intranet er en samling af netværk, der administreres af et enkelt administrativt organ. IP-protokollen og IP-baserede værktøjer såsom webbrowsere og filoverførselsapps bruges på intranettet. Intranettet kan kun tilgås af autoriserede personer, ifølge den administrative enhed. Et intranet er mest typisk en organisations interne LAN. Mindst én webserver er normalt til stede på et stort intranet for at give brugerne organisatoriske oplysninger. Et intranet er alt på et lokalt netværk, der er bag routeren.
Extranet
Et ekstranet er et netværk, der ligeledes administreres af en enkelt organisation, men som kun giver mulighed for en begrænset adgang til et bestemt eksternt netværk. For eksempel kan en virksomhed give adgang til bestemte dele af sit intranet til sine forretningspartnere eller kunder for at dele data. Ud fra en sikkerhedsmæssig forstand er disse andre enheder ikke nødvendigvis til at stole på. WAN-teknologi bruges ofte til at oprette forbindelse til et ekstranet, men det bruges ikke altid.
Internet
Et internetværk er sammenføjningen af flere forskellige typer computernetværk til et enkelt netværk ved at lægge netværkssoftware oven på hinanden og forbinde dem via routere. Internettet er det mest kendte eksempel på et netværk. Det er et sammenkoblet globalt system af statslige, akademiske, erhvervsmæssige, offentlige og private computernetværk. Den er baseret på Internet Protocol Suite's netværksteknologier. Det er efterfølgeren til DARPAs Advanced Research Projects Agency Network (ARPANET), som blev bygget af det amerikanske forsvarsministeriums DARPA. World Wide Web (WWW), Internet of Things (IoT), videotransport og en bred vifte af informationstjenester er alle muliggjort af internettets kobberkommunikations- og optiske netværksrygrad.
Deltagere på internettet anvender en bred vifte af protokoller, der er kompatible med Internet Protocol Suite og et adresseringssystem (IP-adresser), der vedligeholdes af Internet Assigned Numbers Authority og adresseregistre. Gennem Border Gateway Protocol (BGP) deler tjenesteudbydere og større virksomheder information om tilgængeligheden af deres adresserum og opbygger et redundant globalt netværk af transmissionsveje.
Darknet
Et darknet er et internetbaseret overlejringsnetværk, som kun kan tilgås ved at bruge specialsoftware. Et darknet er et anonymiserende netværk, der bruger ikke-standardiserede protokoller og porte til kun at forbinde pålidelige peers - almindeligvis omtalt som "venner" (F2F).
Darknets adskiller sig fra andre distribuerede peer-to-peer-netværk ved, at brugere kan interagere uden frygt for statslig eller virksomhedsinterferens, fordi deling er anonym (dvs. IP-adresser offentliggøres ikke offentligt).
Tjenester til netværket
Netværkstjenester er applikationer, der hostes af servere på et computernetværk for at give funktionalitet til netværksmedlemmer eller -brugere eller for at hjælpe netværket med dets drift.
Velkendte netværkstjenester omfatter World Wide Web, e-mail, udskrivning og netværksfildeling. DNS (Domain Name System) giver navne til IP- og MAC-adresser (navne som "nm.lan" er nemmere at huske end numre som "210.121.67.18"), og DHCP sikrer, at alt netværksudstyr har en gyldig IP-adresse.
Formatet og rækkefølgen af meddelelser mellem klienter og servere for en netværkstjeneste er typisk defineret af en tjenesteprotokol.
Netværkets ydeevne
Forbrugt båndbredde, relateret til opnået gennemløb eller goodput, dvs. den gennemsnitlige hastighed for vellykket dataoverførsel via en kommunikationsforbindelse, måles i bits pr. sekund. Teknologi såsom båndbreddeformning, båndbreddestyring, båndbredderegulering, båndbreddeloft, båndbreddeallokering (f.eks. båndbreddeallokeringsprotokol og dynamisk båndbreddeallokering) og andre påvirker gennemløbet. Den gennemsnitlige forbrugte signalbåndbredde i hertz (den gennemsnitlige spektrale båndbredde af det analoge signal, der repræsenterer bitstrømmen) i løbet af den undersøgte tidsramme bestemmer båndbredden af en bitstrøm.
Et telekommunikationsnetværks design og ydeevnekarakteristika er netværksforsinkelse. Den definerer den tid, det tager for et stykke data at overføre gennem et netværk fra et kommunikationsendepunkt til det næste. Det måles normalt i tiendedele af et sekund eller brøkdele af et sekund. Afhængigt af placeringen af det præcise par af kommunikationsendepunkter kan forsinkelsen variere en smule. Ingeniører rapporterer typisk både den maksimale og gennemsnitlige forsinkelse, såvel som forsinkelsens forskellige komponenter:
Den tid det tager for en router at behandle pakkeheaderen.
Køtid – hvor lang tid en pakke bruger i routingkøerne.
Den tid, det tager at skubbe pakkens bits ind på linket, kaldes transmissionsforsinkelse.
Udbredelsesforsinkelse er den tid, det tager for et signal at rejse gennem mediet.
Signaler støder på en minimal mængde forsinkelse på grund af den tid, det tager at sende en pakke serielt via et link. På grund af overbelastning af netværket forlænges denne forsinkelse med mere uforudsigelige niveauer af forsinkelse. Den tid, det tager for et IP-netværk at reagere, kan variere fra et par millisekunder til flere hundrede millisekunder.
Servicekvalitet
Netværkets ydeevne måles normalt ved kvaliteten af servicen for et telekommunikationsprodukt, afhængigt af installationskravene. Gennemløb, jitter, bitfejlrate og forsinkelse er alle faktorer, der kan påvirke dette.
Eksempler på netværksydelsesmålinger for et kredsløbskoblet netværk og en slags pakkekoblet netværk, nemlig ATM, er vist nedenfor.
Kredsløbskoblede netværk: Servicegraden er identisk med netværkets ydeevne i kredsløbskoblede netværk. Antallet af opkald, der afvises, er en metrik, der angiver, hvor godt netværket klarer sig under høj trafikbelastning. Støj- og ekkoniveauer er eksempler på andre former for præstationsindikatorer.
Linjehastighed, servicekvalitet (QoS), datagennemløb, forbindelsestid, stabilitet, teknologi, moduleringsteknik og modemopgraderinger kan alle bruges til at evaluere ydeevnen af et Asynchronous Transfer Mode (ATM) netværk.
Fordi hvert netværk er unikt i sin natur og arkitektur, er der adskillige tilgange til at vurdere dets ydeevne. I stedet for at blive målt, kan præstationer i stedet modelleres. Tilstandsovergangsdiagrammer bruges for eksempel ofte til at modellere køydeevne i kredsløbskoblede netværk. Disse diagrammer bruges af netværksplanlæggeren til at undersøge, hvordan netværket fungerer i hver stat, for at sikre, at netværket er planlagt korrekt.
Overbelastning på nettet
Når et link eller en knude udsættes for en højere databelastning, end den er bedømt til, opstår der overbelastning af netværket, og kvaliteten af tjenesten lider. Pakker skal slettes, når netværk bliver overbelastet, og køerne bliver for fulde, hvorfor netværk er afhængige af re-transmission. Køforsinkelser, pakketab og blokering af nye forbindelser er alle almindelige resultater af overbelastning. Som et resultat af disse to resulterer trinvise stigninger i tilbudt belastning i enten en lille forbedring i netværksgennemstrømning eller et fald i netværksgennemstrømning.
Selv når den indledende belastning sænkes til et niveau, der typisk ikke vil forårsage netværksoverbelastning, har netværksprotokoller, der bruger aggressive retransmissioner til at korrigere for pakketab, en tendens til at holde systemerne i en tilstand af netværksoverbelastning. Som et resultat, med den samme mængde efterspørgsel, kan netværk, der bruger disse protokoller, udvise to stabile tilstande. Kongestiv kollaps refererer til en stabil situation med lav gennemstrømning.
For at minimere sammenbrud af overbelastning anvender moderne netværk overbelastningsstyring, undgåelse af overbelastning og trafikstyringsstrategier (dvs. endepunkter bremser typisk eller nogle gange endda stopper transmissionen helt, når netværket er overbelastet). Eksponentiel backoff i protokoller som 802.11's CSMA/CA og det originale Ethernet, vinduesreduktion i TCP og rimelig kø i routere er eksempler på disse strategier. Implementering af prioritetsordninger, hvor nogle pakker transmitteres med højere prioritet end andre, er en anden måde at undgå de skadelige virkninger af netværksoverbelastning. Prioriterede ordninger afhjælper ikke overbelastning af nettet alene, men de hjælper med at afbøde konsekvenserne af overbelastning for nogle tjenester. 802.1p er et eksempel på dette. Den bevidste allokering af netværksressourcer til specificerede strømme er en tredje strategi til at undgå overbelastning af netværket. ITU-T G.hn-standarden bruger f.eks. CFTXOP'er (Contention-Free Transmission Opportunities) til at levere højhastigheds (op til 1 Gbit/s) lokalnetværk over eksisterende husledninger (strømledninger, telefonlinjer og koaksialkabler) ).
RFC 2914 til internettet går meget ud på, hvad angår overbelastningskontrol.
Netværkets modstandsdygtighed
"Evnen til at tilbyde og opretholde et passende serviceniveau i lyset af defekter og hindringer for normal drift," ifølge definitionen af netværksresiliens.
Netværkssikkerhed
Hackere bruger computernetværk til at sprede computervirus og orme til netværksenheder eller til at forbyde disse enheder at få adgang til netværket via et denial-of-service-angreb.
Netværksadministratorens bestemmelser og regler for at forhindre og overvåge ulovlig adgang, misbrug, ændring eller nægtelse af computernetværket og dets netværkstilgængelige ressourcer er kendt som netværkssikkerhed. Netværksadministratoren kontrollerer netværkssikkerheden, som er autorisation af adgang til data i et netværk. Brugere får et brugernavn og en adgangskode, der giver dem adgang til information og programmer under deres kontrol. Netværkssikkerhed bruges til at sikre daglige transaktioner og kommunikation mellem organisationer, offentlige myndigheder og enkeltpersoner på en række offentlige og private computernetværk.
Overvågningen af data, der udveksles via computernetværk såsom internettet, er kendt som netværksovervågning. Overvågning udføres ofte i hemmelighed, og det kan udføres af eller på vegne af regeringer, virksomheder, kriminelle grupper eller personer. Det kan være lovligt eller ikke, og det kan være nødvendigt at godkende en domstol eller anden uafhængig agentur.
Overvågningssoftware til computere og netværk er meget udbredt i dag, og næsten al internettrafik er eller kunne overvåges for tegn på ulovlig aktivitet.
Regeringer og retshåndhævende myndigheder bruger overvågning til at opretholde social kontrol, identificere og overvåge risici og forhindre/efterforske kriminelle aktiviteter. Regeringer har nu hidtil uset magt til at overvåge borgernes aktiviteter takket være programmer som Total Information Awareness-programmet, teknologier som højhastighedsovervågningscomputere og biometrisoftware og love som Communications Assistance For Law Enforcement Act.
Mange borgerrettigheds- og privatlivsorganisationer, herunder Reporters Without Borders, Electronic Frontier Foundation og American Civil Liberties Union, har udtrykt bekymring for, at øget borgerovervågning kan føre til et masseovervågningssamfund med færre politiske og personlige friheder. Frygt som denne har givet anledning til en række retssager, herunder Hepting v. AT&T. I protest mod det, den kalder "drakonisk overvågning", har hacktivistgruppen Anonymous hacket sig ind på officielle hjemmesider.
End-to-end-kryptering (E2EE) er et digitalt kommunikationsparadigme, der sikrer, at data, der går mellem to kommunikerende parter, til enhver tid er beskyttet. Det indebærer, at den oprindelige part krypterer data, så de kun kan dekrypteres af den påtænkte modtager, uden at være afhængig af tredjeparter. End-to-end-kryptering beskytter kommunikation mod at blive opdaget eller manipuleret af mellemmænd, såsom internetudbydere eller applikationstjenesteudbydere. Generelt sikrer end-to-end-kryptering både hemmeligholdelse og integritet.
HTTPS til onlinetrafik, PGP til e-mail, OTR til instant messaging, ZRTP til telefoni og TETRA til radio er alle eksempler på end-to-end-kryptering.
End-to-end-kryptering er ikke inkluderet i de fleste serverbaserede kommunikationsløsninger. Disse løsninger kan kun sikre kommunikationssikkerheden mellem klienter og servere, ikke mellem kommunikerende parter. Google Talk, Yahoo Messenger, Facebook og Dropbox er eksempler på ikke-E2EE-systemer. Nogle af disse systemer, såsom LavaBit og SecretInk, har endda hævdet at give "ende-til-ende"-kryptering, når de ikke gør det. Nogle systemer, der formodes at levere end-to-end-kryptering, såsom Skype eller Hushmail, har vist sig at have en bagdør, der forhindrer kommunikationsparterne i at forhandle krypteringsnøglen.
End-to-end krypteringsparadigmet adresserer ikke direkte bekymringer ved kommunikationens slutpunkter, såsom klientteknologisk udnyttelse, lavkvalitets tilfældige talgeneratorer eller nøgledeponering. E2EE ignorerer også trafikanalyse, som involverer bestemmelse af endepunkters identiteter samt timings og mængder af meddelelser, der sendes.
Da e-handel først dukkede op på World Wide Web i midten af 1990'erne, var det klart, at en eller anden form for identifikation og kryptering var påkrævet. Netscape var den første til at forsøge at skabe en ny standard. Netscape Navigator var den mest populære webbrowser på det tidspunkt. Secure Socket Layer (SSL) blev skabt af Netscape (SSL). SSL kræver brug af en certificeret server. Serveren sender en kopi af certifikatet til klienten, når en klient anmoder om adgang til en SSL-sikret server. SSL-klienten verificerer dette certifikat (alle webbrowsere leveres forudindlæst med en omfattende liste over CA-rodcertifikater), og hvis den bestå, godkendes serveren, og klienten forhandler en symmetrisk nøgle-ciffer for sessionen. Mellem SSL-serveren og SSL-klienten er sessionen nu i en meget sikker krypteret tunnel.
For at gøre dig nærmere bekendt med certificeringspensum kan du udvide og analysere nedenstående tabel.
EITC/IS/CNF Computer Networking Fundamentals Certification Curriculum refererer til didaktisk materiale med åben adgang i en videoform. Læreprocessen er opdelt i en trin-for-trin struktur (programmer -> lektioner -> emner), der dækker relevante læseplansdele. Der tilbydes også ubegrænset rådgivning med domæneeksperter.
Tjek for detaljer om certificeringsproceduren Sådan fungerer det.
EITC/IS/WAPT webapplikations penetrationstest
EITC/IS/WAPT Web Applications Penetration Testing er det europæiske IT-certificeringsprogram om teoretiske og praktiske aspekter af webapplikationspenetrationstest (white hacking), herunder forskellige teknikker til webstedsspidering, scanning og angrebsteknikker, herunder specialiserede penetrationstestværktøjer og suiter .
Læreplanen for EITC/IS/WAPT Web Applications Penetration Testing dækker introduktion til Burp Suite, web spidering og DVWA, brute force testing med Burp Suite, web application firewall (WAF) detektion med WAFW00F, target scope og spidering, opdagelse af skjulte filer med ZAP, WordPress sårbarhedsscanning og opregning af brugernavne, load balancer-scanning, cross-site scripting, XSS – reflekteret, lagret og DOM, proxyangreb, konfiguration af proxyen i ZAP, filer og mappeangreb, fil- og biblioteksopdagelse med DirBuster, praksis for webangreb , OWASP Juice Shop, CSRF – Cross Site Request Forgery, cookie-indsamling og reverse engineering, HTTP-attributter – cookie-tyveri, SQL-injektion, DotDotPwn – directory traversal fuzzing, iframe-injection og HTML-injection, Heartbleed exploit – opdagelse og udnyttelse, PHP-kodeinjektion, bWAPP – HTML-injektion, reflekteret POST, OS-kommandeinjektion med Commix, server-side inkluderer SSI-injektion, pentesting i Docker, OverTheWire Natas, LFI og kommandoinjektion, Google-hacking til penetrering, Google Dorks til penetrationstest, Apache2 ModSecurity samt Nginx ModSecurity inden for følgende struktur, der omfatter omfattende videodidaktisk indhold som reference for denne EITC-certificering.
Webapplikationssikkerhed (ofte omtalt som Web AppSec) er konceptet med at designe websteder til at fungere normalt, selv når de bliver angrebet. Begrebet er at integrere et sæt sikkerhedsforanstaltninger i en webapplikation for at beskytte dens aktiver mod fjendtlige agenter. Webapplikationer, som al software, er tilbøjelige til fejl. Nogle af disse fejl er faktiske sårbarheder, der kan udnyttes, hvilket udgør en risiko for virksomheder. Sådanne fejl beskyttes mod via webapplikationssikkerhed. Det indebærer anvendelse af sikre udviklingstilgange og indførelse af sikkerhedskontroller gennem hele softwareudviklingens livscyklus (SDLC), der sikrer, at designfejl og implementeringsproblemer løses. Online penetrationstest, som udføres af eksperter, der har til formål at afdække og udnytte webapplikationssårbarheder ved hjælp af en såkaldt white hacking-tilgang, er en væsentlig praksis for at muliggøre passende forsvar.
En webpenetrationstest, også kendt som en webpentest, simulerer et cyberangreb på en webapplikation for at finde udbyttelige fejl. Penetrationstest bruges ofte til at supplere en webapplikationsfirewall i forbindelse med webapplikationssikkerhed (WAF). Pentesting indebærer generelt forsøg på at trænge ind i et hvilket som helst antal applikationssystemer (f.eks. API'er, frontend/backend-servere) for at finde sårbarheder, såsom usanitiseret input, der er sårbart over for kodeinjektionsangreb.
Resultaterne af online penetrationstesten kan bruges til at konfigurere WAF-sikkerhedspolitikker og adressere opdagede sårbarheder.
Penetrationstest har fem trin.
Pen-testproceduren er opdelt i fem trin.
- Planlægning og spejderarbejde
At definere omfanget og målene for en test, herunder de systemer, der skal behandles, og de testmetoder, der skal anvendes, er den første fase.
For at få en bedre forståelse af, hvordan et mål fungerer og dets potentielle svagheder, skal du indsamle efterretninger (f.eks. netværks- og domænenavne, mailserver). - Scanning
Næste trin er at finde ud af, hvordan målapplikationen vil reagere på forskellige typer indtrængningsforsøg. Dette opnås normalt ved at anvende følgende metoder:
Statisk analyse – Undersøgelse af en applikations kode for at forudsige, hvordan den vil opføre sig, når den køres. I et enkelt gennemløb kan disse værktøjer scanne hele koden.
Dynamisk analyse er processen med at inspicere en applikations kode, mens den kører. Denne metode til scanning er mere praktisk, fordi den giver et realtidsbillede af en applikations ydeevne. - At få adgang
For at finde et måls svagheder bruger dette trin webapplikationsangreb såsom cross-site scripting, SQL-injektion og bagdøre. For at forstå den skade, som disse sårbarheder kan påføre, forsøger testere at udnytte dem ved at eskalere privilegier, stjæle data, opsnappe trafik og så videre. - Holder adgangen
Formålet med denne fase er at vurdere, om sårbarheden kan udnyttes til at etablere en langsigtet tilstedeværelse i det kompromitterede system, hvilket giver en dårlig aktør mulighed for at få dybdegående adgang. Målet er at efterligne avancerede vedvarende trusler, som kan forblive i et system i flere måneder for at stjæle en virksomheds mest følsomme oplysninger. - Analyse
Penetrationstestresultaterne sættes derefter i en rapport, der indeholder oplysninger som:
Sårbarheder, der blev udnyttet i detaljer
Data, der blev indhentet, var følsomme
Mængden af tid, pennetesteren var i stand til at forblive ubemærket i systemet.
Sikkerhedseksperter bruger disse data til at hjælpe med at konfigurere en virksomheds WAF-indstillinger og andre applikationssikkerhedsløsninger for at reparere sårbarheder og forhindre yderligere angreb.
Metoder til gennemtrængningstestning
- Ekstern penetrationstest fokuserer på en virksomheds aktiver, der er synlige på internettet, såsom selve webapplikationen, virksomhedens hjemmeside samt e-mail- og domænenavneservere (DNS). Målet er at få adgang til og udtrække nyttig information.
- Intern test indebærer, at en tester har adgang til en applikation bag en virksomheds firewall, der simulerer et fjendtligt insiderangreb. Dette er ikke nødvendigt en slyngel medarbejdersimulering. En medarbejder, hvis legitimationsoplysninger er opnået som følge af et phishingforsøg, er et almindeligt udgangspunkt.
- Blindtest er, når en tester blot får navnet på den virksomhed, der testes. Dette giver sikkerhedseksperter mulighed for at se, hvordan et faktisk applikationsangreb kan udspille sig i realtid.
- Dobbelt-blind test: I en dobbelt-blind test er sikkerhedsprofessionelle ikke klar over det simulerede angreb på forhånd. De vil ikke nå at støtte deres befæstninger før et forsøg på brud, ligesom i den virkelige verden.
- Målrettet test – i dette scenarie samarbejder testeren og sikkerhedspersonalet og holder styr på hinandens bevægelser. Dette er en fremragende træningsøvelse, der giver et sikkerhedsteam feedback i realtid fra en hackers perspektiv.
Webapplikations firewalls og penetrationstest
Penetrationstest og WAF'er er to separate, men komplementære sikkerhedsteknikker. Testeren vil sandsynligvis udnytte WAF-data, såsom logfiler, til at finde og udnytte en applikations svage områder i mange typer pentests (med undtagelse af blind- og dobbeltblindetests).
Til gengæld kan pentestdata hjælpe WAF-administratorer. Efter afslutningen af en test kan WAF-konfigurationer ændres for at beskytte mod de fejl, der er opdaget under testen.
Endelig opfylder pentest visse af sikkerhedsrevisionsmetodernes overholdelseskrav, såsom PCI DSS og SOC 2. Visse krav, såsom PCI-DSS 6.6, kan kun opfyldes, hvis der anvendes en certificeret WAF. Men på grund af de førnævnte fordele og potentiale til at ændre WAF-indstillinger, gør dette ikke pennetest mindre nyttigt.
Hvad er betydningen af test af websikkerhed?
Målet med websikkerhedstest er at identificere sikkerhedsfejl i webapplikationer og deres opsætning. Applikationslaget er det primære mål (dvs. hvad der kører på HTTP-protokollen). At sende forskellige former for input til en webapplikation for at fremkalde problemer og få systemet til at reagere på uventede måder er en almindelig tilgang til at teste dets sikkerhed. Disse "negative tests" ser for at se, om systemet gør noget, det ikke var beregnet til at opnå.
Det er også vigtigt at indse, at websikkerhedstest indebærer mere end blot at verificere applikationens sikkerhedsfunktioner (såsom godkendelse og autorisation). Det er også afgørende at sikre, at andre funktioner implementeres sikkert (f.eks. forretningslogik og brug af korrekt inputvalidering og outputkodning). Formålet er at sikre, at webapplikationens funktioner er sikre.
Hvad er de mange typer sikkerhedsvurderinger?
- Test for Dynamic Application Security (DAST). Denne automatiserede applikationssikkerhedstest er bedst egnet til lavrisiko, internt-vendte apps, der skal opfylde lovmæssige sikkerhedskrav. At kombinere DAST med nogle manuelle online sikkerhedstests for almindelige sårbarheder er den bedste strategi for apps med mellemrisiko og vigtige applikationer, der gennemgår mindre ændringer.
- Sikkerhedstjek for statiske applikationer (SAST). Denne applikationssikkerhedsstrategi omfatter både automatiserede og manuelle testmetoder. Den er ideel til at opdage fejl uden at skulle køre apps i et live miljø. Det giver også ingeniører mulighed for at scanne kildekoden for at opdage og rette softwaresikkerhedsfejl på en systematisk måde.
- Penetrationsundersøgelse. Denne manuelle applikationssikkerhedstest er ideel til vigtige applikationer, især dem, der gennemgår væsentlige ændringer. For at finde avancerede angrebsscenarier bruger evalueringen forretningslogik og modstandsbaseret test.
- Application Self-Protection in the Runtime (RASP). Denne voksende applikationssikkerhedsmetode inkorporerer en række teknologiske teknikker til at instrumentere en applikation, så trusler kan overvåges og forhåbentlig forhindres i realtid, når de opstår.
Hvilken rolle spiller applikationssikkerhedstest for at sænke virksomhedens risiko?
Langt de fleste angreb på webapplikationer omfatter:
- SQL Injection
- XSS (Cross Site Scripting)
- Fjernkommandoudførelse
- Path Traversal Angreb
- Begrænset indholdsadgang
- Kompromitterede brugerkonti
- Installation af skadelig kode
- Tabt salgsindtægt
- Kundernes tillid eroderer
- Skader brandets omdømme
- Og en masse andre angreb
I dagens internetmiljø kan en webapplikation blive skadet af en række forskellige udfordringer. Grafikken ovenfor viser et par af de mest almindelige angreb begået af angribere, som hver især kan forårsage betydelig skade på en individuel applikation eller en hel virksomhed. At kende de mange angreb, der gør en applikation sårbar, samt de mulige resultater af et angreb, giver virksomheden mulighed for at løse sårbarheder på forhånd og effektivt teste for dem.
Afhjælpende kontroller kan etableres i de tidlige faser af SDLC for at forhindre problemer ved at identificere årsagen til sårbarheden. Under en webapplikationssikkerhedstest kan viden om, hvordan disse trusler virker, også bruges til at målrette mod kendte steder af interesse.
At erkende virkningen af et angreb er også vigtigt for at styre virksomhedens risiko, da virkningerne af et vellykket angreb kan bruges til at bestemme alvoren af sårbarheden generelt. Hvis sårbarheder opdages under en sikkerhedstest, giver en bestemmelse af deres alvor mulighed for, at virksomheden kan prioritere afhjælpende indsats mere effektivt. For at reducere risikoen for virksomheden skal du starte med kritiske alvorlighedsproblemer og arbejde dig ned til dem, der har mindre effekt.
Før du identificerer et problem, vil vurdering af den mulige effekt af hvert program i virksomhedens applikationsbibliotek hjælpe dig med at prioritere applikationssikkerhedstest. Wenb-sikkerhedstest kan planlægges til først at målrette virksomhedens kritiske applikationer, med mere målrettede tests for at mindske risikoen mod virksomheden. Med en etableret liste over højprofilerede applikationer kan wenb-sikkerhedstest planlægges til først at målrette virksomhedens kritiske applikationer, med mere målrettet test for at sænke risikoen mod virksomheden.
Hvilke funktioner skal undersøges under en webapplikationssikkerhedstest?
Under webapplikationssikkerhedstest skal du overveje følgende ikke-udtømmende liste over funktioner. En ineffektiv implementering af hver enkelt kan resultere i svagheder, hvilket bringer virksomheden i fare.
- Konfiguration af applikation og server. Kryptering/kryptografiske opsætninger, webserverkonfigurationer og så videre er alle eksempler på potentielle fejl.
- Validering af input- og fejlhåndtering Dårlig input- og outputbehandling fører til SQL-injektion, cross-site scripting (XSS) og andre typiske injektionsproblemer.
- Autentificering og vedligeholdelse af sessioner. Sårbarheder, der kan føre til brugerefterligning. Credential styrke og beskyttelse bør også tages i betragtning.
- Bemyndigelse. Applikationens kapacitet til at beskytte mod vertikale og horisontale privilegieeskalationer er ved at blive testet.
- Logik i erhvervslivet. De fleste programmer, der leverer forretningsfunktionalitet, er afhængige af disse.
- Logik i klientens ende. Denne type funktion er ved at blive mere almindelig med moderne, JavaScript-tunge websider, såvel som websider, der bruger andre typer klientsideteknologier (f.eks. Silverlight, Flash, Java-applets).
For at gøre dig nærmere bekendt med certificeringspensum kan du udvide og analysere nedenstående tabel.
EITC/IS/WAPT Web Applications Penetration Testing Certification Curriculum refererer til didaktisk materiale med åben adgang i en videoform. Læreprocessen er opdelt i en trin-for-trin struktur (programmer -> lektioner -> emner), der dækker relevante læseplansdele. Der tilbydes også ubegrænset rådgivning med domæneeksperter.
Tjek for detaljer om certificeringsproceduren Sådan fungerer det.
EITC/IS/WASF Web Applications Security Fundamentals
EITC/IS/WASF Web Applications Security Fundamentals er det europæiske IT-certificeringsprogram om teoretiske og praktiske aspekter af World Wide Web-tjenesters sikkerhed lige fra sikkerheden af grundlæggende webprotokoller, gennem privatlivets fred, trusler og angreb på forskellige lag af webtrafik, netværkskommunikation, web serversikkerhed, sikkerhed i højere lag, herunder webbrowsere og webapplikationer, samt autentificering, certifikater og phising.
Læseplanen for EITC/IS/WASF Web Applications Security Fundamentals dækker introduktion til HTML- og JavaScript-websikkerhedsaspekter, DNS, HTTP, cookies, sessioner, cookie- og sessionangreb, Samme Origin Policy, Cross-Site Request Forgery, undtagelser fra det samme Oprindelsespolitik, Cross-Site Scripting (XSS), Cross-Site Scripting-forsvar, webfingeraftryk, privatliv på nettet, DoS, phishing og sidekanaler, Denial-of-Service, phishing og sidekanaler, injektionsangreb, kodeinjektion, transport lagsikkerhed (TLS) og angreb, HTTPS i den virkelige verden, autentificering, WebAuthn, styring af websikkerhed, sikkerhedsproblemer i Node.js-projektet, serversikkerhed, sikker kodningspraksis, lokal HTTP-serversikkerhed, DNS-genbindingsangreb, browserangreb, browser arkitektur, samt skrivning af sikker browserkode, inden for følgende struktur, der omfatter omfattende videodidaktisk indhold som reference for denne EITC-certificering.
Webapplikationssikkerhed er en delmængde af informationssikkerhed, der fokuserer på websteds-, webapplikations- og webservicesikkerhed. Webapplikationssikkerhed er på sit mest basale niveau baseret på applikationssikkerhedsprincipper, men den anvender dem især på internettet og webplatforme. Webapplikationssikkerhedsteknologier, såsom webapplikationsfirewalls, er specialiserede værktøjer til at arbejde med HTTP-trafik.
Open Web Application Security Project (OWASP) tilbyder ressourcer, der er både gratis og åbne. En non-profit OWASP Foundation er ansvarlig for det. 2017 OWASP Top 10 er resultatet af den aktuelle undersøgelse baseret på omfattende data indsamlet fra over 40 partnerorganisationer. Cirka 2.3 millioner sårbarheder blev opdaget på tværs af over 50,000 applikationer, der bruger disse data. De ti mest kritiske sikkerhedsproblemer for onlineapplikationer ifølge OWASP Top 10 – 2017 er:
- Injektion
- Godkendelsesproblemer
- Eksponerede følsomme data XML eksterne enheder (XXE)
- Adgangskontrol, der ikke virker
- Fejlkonfiguration af sikkerhed
- Site-to-site scripting (XSS)
- Deserialisering, der ikke er sikker
- Brug af komponenter, der har kendte fejl
- Logning og overvågning er utilstrækkelig.
Derfor er praksis med at forsvare websteder og onlinetjenester mod forskellige sikkerhedstrusler, der udnytter svagheder i en applikations kode, kendt som webapplikationssikkerhed. Indholdsstyringssystemer (f.eks. WordPress), databaseadministrationsværktøjer (f.eks. phpMyAdmin) og SaaS-apps er alle almindelige mål for online-applikationsangreb.
Webapplikationer betragtes som højprioriterede mål af gerningsmændene, fordi:
- På grund af den indviklede kildekode, er uovervågede sårbarheder og ondsindet kodeændring mere sandsynlig.
- Belønninger af høj værdi, såsom følsomme personlige oplysninger opnået gennem effektiv kildekodemanipulation.
- Nem henrettelse, fordi de fleste overfald let kan automatiseres og udsendes vilkårligt mod tusinder, tiere eller endda hundredtusinder af mål på én gang.
- Organisationer, der undlader at beskytte deres webapplikationer, er sårbare over for angreb. Dette kan blandt andet føre til datatyveri, anstrengte klientforhold, annullerede licenser og retslige skridt.
Sårbarheder på websteder
Input/output-saneringsfejl er almindelige i webapplikationer, og de bliver ofte udnyttet til enten at ændre kildekode eller få uautoriseret adgang.
Disse fejl giver mulighed for udnyttelse af en række forskellige angrebsvektorer, herunder:
- SQL-injektion – Når en gerningsmand manipulerer en backend-database med ondsindet SQL-kode, afsløres information. Ulovlig listesøgning, sletning af tabeller og uautoriseret administratoradgang er blandt konsekvenserne.
- XSS (Cross-site Scripting) er et injektionsangreb, der retter sig mod brugere for at få adgang til konti, aktivere trojanske heste eller ændre sideindhold. Når skadelig kode injiceres direkte i en applikation, er dette kendt som lagret XSS. Når ondsindet script spejles fra et program til en brugers browser, er dette kendt som reflekteret XSS.
- Fjern filinkludering - Denne form for angreb gør det muligt for en hacker at injicere en fil i en webapplikationsserver fra en fjernplacering. Dette kan føre til, at farlige scripts eller kode udføres i appen, samt datatyveri eller ændring.
- Cross-site Request Forgery (CSRF) – En type angreb, der kan resultere i en utilsigtet overførsel af kontanter, ændringer af adgangskode eller datatyveri. Det opstår, når et ondsindet webprogram instruerer en brugers browser til at udføre en uønsket handling på et websted, som de er logget ind på.
I teorien kan effektiv input/output-sanering udrydde alle sårbarheder, hvilket gør en applikation uigennemtrængelig for uautoriserede ændringer.
Men fordi de fleste programmer er i en evig udviklingstilstand, er omfattende desinficering sjældent en levedygtig mulighed. Desuden er apps almindeligvis integreret med hinanden, hvilket resulterer i et kodet miljø, der bliver mere og mere komplekst.
For at undgå sådanne farer bør webapplikationssikkerhedsløsninger og -processer, såsom PCI Data Security Standard (PCI DSS)-certificering, implementeres.
Firewall til webapplikationer (WAF)
WAF'er (webapplikationsfirewalls) er hardware- og softwareløsninger, der beskytter applikationer mod sikkerhedstrusler. Disse løsninger er designet til at inspicere indgående trafik for at detektere og blokere angrebsforsøg, og kompensere for eventuelle kodesaneringsfejl.
WAF-implementering adresserer et afgørende kriterium for PCI DSS-certificering ved at beskytte data mod tyveri og modifikation. Alle kredit- og betalingskortholderdata, der opbevares i en database, skal beskyttes i henhold til krav 6.6.
Fordi det er sat foran sin DMZ ved netværkets kant, kræver etablering af en WAF normalt ikke nogen ændringer af en applikation. Det fungerer derefter som en gateway for al indgående trafik, og filtrerer farlige anmodninger fra, før de kan interagere med en applikation.
For at vurdere, hvilken trafik der har adgang til en applikation, og hvilken der skal luges ud, anvender WAF'er en række forskellige heuristika. De kan hurtigt identificere ondsindede aktører og kendte angrebsvektorer takket være en regelmæssigt opdateret signaturpulje.
Næsten alle WAF'er kan skræddersyes til individuelle brugssager og sikkerhedsbestemmelser, såvel som bekæmpelse af nye (også kendt som zero-day) trusler. Endelig, for at opnå yderligere indsigt i indkommende besøgende, bruger de fleste moderne løsninger omdømme- og adfærdsdata.
For at bygge en sikkerhedsperimeter kombineres WAF'er normalt med yderligere sikkerhedsløsninger. Disse kunne omfatte distribuerede denial-of-service (DDoS) forebyggelsestjenester, som giver den ekstra skalerbarhed, der er nødvendig for at forhindre angreb i store mængder.
Tjekliste til webapplikationssikkerhed
Der er en række forskellige tilgange til beskyttelse af webapps ud over WAF'er. Enhver webapplikationssikkerhedstjekliste bør omfatte følgende procedurer:
- Indsamling af data — Gennemgå applikationen manuelt, og se efter indgangspunkter og koder på klientsiden. Klassificer indhold, der hostes af en tredjepart.
- Autorisation — Se efter stigennemløb, problemer med lodret og horisontal adgangskontrol, manglende autorisation og usikre, direkte objektreferencer, når du tester applikationen.
- Sikre alle datatransmissioner med kryptografi. Er nogen følsomme oplysninger blevet krypteret? Har du brugt nogen algoritmer, der ikke er til snus? Er der nogen tilfældighedsfejl?
- Denial of service — Test for anti-automatisering, kontolås, HTTP-protokol DoS og SQL wildcard DoS for at forbedre en applikations modstandsdygtighed mod lammelsesangreb. Dette inkluderer ikke sikkerhed mod højvolumen DoS- og DDoS-angreb, som kræver en blanding af filtreringsteknologier og skalerbare ressourcer for at modstå.
For yderligere detaljer kan man tjekke OWASP Web Application Security Testing Cheat Sheet (det er også en fantastisk ressource til andre sikkerhedsrelaterede emner).
DDoS beskyttelse
DDoS-angreb eller distribuerede denial-of-service-angreb er en typisk måde at afbryde en webapplikation på. Der er en række tilgange til at afbøde DDoS-angreb, herunder kassering af volumetrisk angrebstrafik på Content Delivery Networks (CDN'er) og brug af eksterne netværk til at rute ægte anmodninger korrekt uden at forårsage en tjenesteafbrydelse.
DNSSEC (Domain Name System Security Extensions) beskyttelse
Domænenavnesystemet, eller DNS, er internettets telefonbog, og det afspejler, hvordan et internetværktøj, såsom en webbrowser, finder den relevante server. DNS-cacheforgiftning, on-path-angreb og andre midler til at forstyrre DNS-opslagslivscyklussen vil blive brugt af dårlige aktører til at kapre denne DNS-anmodningsproces. Hvis DNS er internettets telefonbog, er DNSSEC et opkalds-id, der ikke kan forfalskes. En anmodning om DNS-opslag kan beskyttes ved hjælp af DNSSEC-teknologien.
For at gøre dig nærmere bekendt med certificeringspensum kan du udvide og analysere nedenstående tabel.
EITC/IS/WASF Web Applications Security Fundamentals Certification Curriculum refererer til didaktisk materiale med åben adgang i en videoform. Læreprocessen er opdelt i en trin-for-trin struktur (programmer -> lektioner -> emner), der dækker relevante læseplansdele. Der tilbydes også ubegrænset rådgivning med domæneeksperter.
Tjek for detaljer om certificeringsproceduren Sådan fungerer det.
EITC/IS/ACSS Advanced Computer Systems Security
EITC/IS/ACSS Advanced Computer Systems Security er det europæiske it-certificeringsprogram om teoretiske og praktiske aspekter af cybersikkerhed i computersystemer.
Læseplanen for EITC/IS/ACSS Advanced Computer Systems Security dækker viden og praktiske færdigheder inden for mobile smarte enheder sikkerhed, sikkerhedsanalyse, symbolsk udførelse, netværkssikkerhed (herunder websikkerhedsmodel og sikre kanaler og sikkerhedscertifikater), praktiske implementeringer i real- livsscenarier, sikkerhed for meddelelser og lagring samt timing af angreb inden for følgende struktur, der omfatter omfattende videodidaktisk indhold som reference for denne EITC-certificering.
Avancerede computersystemers sikkerhed går ud over indledende begreber. Læreplanen dækker først mobilenheders sikkerhed (herunder sikkerheden af mobile apps). Læreplanen fortsætter derefter til formel sikkerhedsanalyse, som er et vigtigt aspekt af avancerede computersystemers sikkerhed, med hovedfokus på symbolsk eksekvering. Yderligere diskuterer pensum introduktion til netværkssikkerhed, herunder introduktion af websikkerhedsmodellen, netværkssikkerhed, definition og teori om sikre kanaler, samt sikkerhedscertifikater. Ydermere omhandler læseplanen praktisk implementering af informationssikkerhed, især i betragtning af virkelige scenarier. Det fortsætter derefter med at diskutere visse områder af sikkerhedsapplikationer, nemlig kommunikation (beskeder) og lagring (med ikke-pålidelige lagringsservere). Den konkluderer med at diskutere avancerede computersystemers sikkerhedstrusler i form af CPU-timingangrebene.
Beskyttelse af computersystemer og information mod skade, tyveri og ulovlig brug er generelt kendt som computersystemsikkerhed, nogle gange også omtalt som cybersikkerhed. Serienumre, fysiske sikkerhedsforanstaltninger, overvågning og alarmer bruges almindeligvis til at beskytte computerudstyr, ligesom de er for andet vigtigt eller følsomt udstyr. Information og systemadgang i software er på den anden side beskyttet ved hjælp af en række forskellige strategier, hvoraf nogle er ret komplicerede og kræver tilstrækkelige faglige kompetencer.
Fire vigtige farer behandles af sikkerhedsprocedurerne i forbindelse med computersystemers behandlede information og adgang:
- Datatyveri fra offentlige computere, såsom intellektuel ejendom,
- Hærværk, herunder brug af en computervirus til at ødelægge eller kapre data,
- Svig, såsom hackere (eller f.eks. bankpersonale), der omdirigerer penge til deres egne konti,
- Krænkelse af privatlivets fred, såsom indhentning af beskyttede personlige økonomiske eller medicinske data fra en stor database uden tilladelse.
Den mest basale metode til at sikre et computersystem mod tyveri, hærværk, krænkelse af privatlivets fred og anden uansvarlig adfærd er at spore og registrere de forskellige brugeres adgang til og aktivitet på systemet. Dette opnås ofte ved at give hver person, der har adgang til et system, en unik adgangskode. Computersystemet kan derefter spore brugen af disse adgangskoder automatisk, og noterer oplysninger som hvilke filer der blev tilgået med hvilke adgangskoder, og så videre. En anden sikkerhedsteknik er at opbevare et systems data på en anden enhed eller et andet medium, som normalt er utilgængeligt via computersystemet. Endelig er data ofte krypteret, hvilket kun tillader dem med en enkelt krypteringsnøgle at afkode dem (hvilket falder ind under begrebet kryptografi).
Siden introduktionen af modemer (enheder, der tillader computere at interagere via telefonlinjer) i slutningen af 1960'erne, har computersikkerhed været stadig mere afgørende. I 1980'erne forværrede udviklingen af personlige computere problemet ved at tillade hackere (uansvarligt agerende, typisk autodidakte computerprofessionelle, omgå begrænsninger for computeradgang) ulovligt at få adgang til vigtige computersystemer fra komforten af deres eget hjem. Med internettets eksplosive stigning i slutningen af det tyvende og begyndelsen af det enogtyvende århundrede blev computersikkerhed en stor bekymring. Udviklingen af forbedrede sikkerhedssystemer forsøger at reducere sådanne sårbarheder, men alligevel udvikler computerkriminalitet sig hele tiden, hvilket udgør nye risici.
At spørge, hvad der bliver sikret, er en teknik til at bestemme lighederne og forskellene i computersystemernes sikkerhed.
Som et eksempel,
- Informationssikkerhed er beskyttelse af data mod uautoriseret adgang, ændring og sletning.
- Applikationssikkerhed er beskyttelsen af en applikation mod cybertrusler såsom SQL-injektion, DoS-angreb, databrud og så videre.
- Computersikkerhed er defineret som beskyttelse af computersystemer, der kommunikerer over computernetværk med hensyn til kontrol ved at holde dem opdaterede og patchede.
- Netværkssikkerhed er defineret som sikring af både software- og hardwareteknologier i et netværksmiljø – cybersikkerhed defineres som at beskytte computersystemer, der kommunikerer over computernetværk med hensyn til kontrol ved at holde dem opdaterede og patchede.
Det er afgørende at genkende forskellene mellem disse udtryk, selvom der ikke altid er en klar forståelse af deres definitioner eller i hvor høj grad de overlapper eller er udskiftelige. Computersystemsikkerhed henviser til de sikkerhedsforanstaltninger, der er indført for at sikre fortroligheden, integriteten og tilgængeligheden af alle computersystemkomponenter.
Følgende er komponenterne i et computersystem, der skal beskyttes:
- Hardware eller de fysiske komponenter i et computersystem, såsom systemhukommelsen og diskdrevet.
- Firmware er ikke-flygtig software, der er permanent lagret på den ikke-flygtige hukommelse på en hardwareenhed og generelt er gennemsigtig for brugeren.
- Software er computerprogrammer, der giver brugerne tjenester såsom et operativsystem, tekstbehandler og webbrowser, der bestemmer, hvordan hardwaren fungerer for at behandle information i overensstemmelse med de mål, der er defineret af softwaren.
CIA-triaden beskæftiger sig primært med tre områder af computersystemsikkerhed:
- Fortrolighed sikrer, at kun den tilsigtede målgruppe har adgang til information.
- Integritet refererer til at forhindre uautoriserede parter i at ændre behandlede data.
- Tilgængelighed refererer til evnen til at forhindre uautoriserede parter i at ændre data.
Information og computerkomponenter skal være brugbare, samtidig med at de er beskyttet mod enkeltpersoner eller software, der ikke burde kunne få adgang til eller ændre dem.
De hyppigste sikkerhedstrusler på computersystemer
Computersystemers sikkerhedsrisici er potentielle farer, der kan forstyrre din computers rutinemæssige drift. Efterhånden som verden bliver mere digital, bliver cyberrisici mere udbredt. Følgende er de farligste typer computersikkerhedstrusler:
- Virus – en computervirus er et ondsindet program, der installeres uden brugerens viden på deres computer. Det replikerer sig selv og inficerer brugerens data og programmer. Det ultimative formål med en virus er at forhindre, at ofrets computer nogensinde fungerer korrekt eller overhovedet.
- Computerorm - en computerorm er en type software, der kan kopiere sig selv fra en computer til en anden uden behov for menneskelig indgriben. Fordi en orm kan replikere i store mængder og ved høje hastigheder, er der risiko for, at den æder din computers harddiskplads.
- Phishing – handling af en person, der udgiver sig for at være en troværdig person eller enhed for at stjæle kritiske økonomiske eller personlige oplysninger (herunder computersystemers adgangsoplysninger) via såkaldte phishing-e-mails eller instant messaging. Phishing er desværre utroligt nemt at udføre. Et offer bliver bedraget til at tro, at kommunikationen fra phisheren er en autentisk officiel kommunikation, og ofret giver frit følsomme personlige oplysninger.
- Botnet – et botnet er en gruppe computere, der er knyttet til internettet, og som er blevet inficeret med en computervirus af en hacker. Udtrykket zombiecomputer eller en bot refererer til en enkelt computer i botnettet. Ofrets computer, som er bot i botnet, vil blive udnyttet til ondsindede handlinger og større angreb som DDoS som følge af denne trussel.
- Rootkit – et rootkit er et computerprogram, der bevarer privilegeret adgang til en computer, mens det forsøger at skjule dens tilstedeværelse. Rootkittets controller vil være i stand til at fjernafvikle filer og ændre systemkonfigurationer på værtsmaskinen, når den er blevet installeret.
- Keylogger – keyloggere, ofte kendt som tastetryksloggere, kan overvåge en brugers computeraktivitet i realtid. Den registrerer alle tastetryk udført af brugerens tastatur. Brugen af en keylogger til at stjæle folks loginoplysninger, såsom brugernavn og adgangskode, er også en alvorlig trussel.
Disse er måske de mest udbredte sikkerhedsrisici, man kan støde på for nylig. Der er flere, såsom malware, wabbits, scareware, bluesnarfing og mange andre. Der er heldigvis teknikker til at forsvare computersystemer og deres brugere mod sådanne angreb.
Vi ønsker alle at holde vores computersystemer og personlige eller professionelle oplysninger private i denne digitale æra, derfor er computersystemers sikkerhed afgørende for at beskytte vores personlige oplysninger. Det er også vigtigt at holde vores computere sikre og sunde ved at undgå, at vira og malware forårsager ødelæggelse af systemets ydeevne.
Praksis inden for sikkerhed i computersystemer
I disse dage bliver computersystemers sikkerhedsrisici mere og mere innovative. For at beskytte mod disse komplicerede og stigende computersikkerhedsrisici og forblive sikker online, skal man bevæbne sig med information og ressourcer. Man kan tage følgende forholdsregler:
- Installation af pålidelig antivirus- og sikkerhedssoftware
- Fordi en firewall fungerer som en sikkerhedsvagt mellem internettet og dit lokale netværk, bør du aktivere den.
- Hold dig opdateret med den nyeste software og nyheder om dine enheder, og installer opdateringer, så snart de bliver tilgængelige.
- Hvis du er usikker på oprindelsen af en e-mail-vedhæftet fil, skal du ikke åbne den.
- Brug en unik kombination af tal, bogstaver og store bogstaver, og skift adgangskoder regelmæssigt.
- Mens du får adgang til internettet, skal du være forsigtig med pop-ups og drive-by downloads.
- At investere tiden i at lære om det grundlæggende i computersikkerhed og holde trit med de seneste cybertrusler
- Udfør daglige komplette systemscanninger og opret en regelmæssig systemsikkerhedskopieringsplan for at sikre, at dine data kan gendannes i tilfælde af, at din maskine fejler.
Bortset fra disse er der en række andre professionelle tilgange til at beskytte computersystemer. Aspekter, herunder tilstrækkelige sikkerhedsarkitektoniske specifikationer, kryptering og specialistsoftware, kan hjælpe med at beskytte computersystemer.
Desværre er antallet af cyberfarer hastigt stigende, og mere komplekse angreb dukker op. For at bekæmpe disse angreb og afbøde farer kræves der mere professionelle og specialiserede cybersikkerhedsfærdigheder.
For at gøre dig nærmere bekendt med certificeringspensum kan du udvide og analysere nedenstående tabel.
EITC/IS/ACSS Advanced Computer Systems Security Certification Curriculum refererer til didaktisk materiale med åben adgang i en videoform. Læreprocessen er opdelt i en trin-for-trin struktur (programmer -> lektioner -> emner), der dækker relevante læseplansdele. Der tilbydes også ubegrænset rådgivning med domæneeksperter.
Tjek for detaljer om certificeringsproceduren Sådan fungerer det.
Grundlæggende for EITC/IS/CSSF computersystemer
EITC/IS/CSSF Computer Systems Security Fundamentals er det europæiske it-certificeringsprogram om teoretiske og praktiske aspekter af cybersikkerhed i computersystemer.
Læreplanen for EITC/IS/CSSF Computer Systems Security Fundamentals dækker viden og praktiske færdigheder inden for computersystemers sikkerhedsarkitektur, brugergodkendelse, klasser af angreb, sikkerhedssårbarheder, skadereduktion, privilegieadskillelse, softwarebeholdere og isolering, samt sikre enklaver, inden for følgende struktur, der omfatter omfattende videodidaktisk indhold som reference for denne EITC-certificering.
Computersystemsikkerhed er et bredt koncept for anvendelse af arkitekturer og metoder til at sikre sikker informationsbehandling og kommunikation i computersystemer. For at løse dette problem fra et teoretisk synspunkt dækker læseplanen først computersystemers sikkerhedsarkitektur. Derefter fortsætter det med at diskutere problemer med brugergodkendelse i sikre computersystemer, efterfulgt af overvejelser om computersystemangreb med fokus på en generel klasse af de såkaldte bufferoverløbsangreb. Læseplanen dækker derefter sikkerhedssårbarheder, skadereduktion i computersystemer, med fokus på privilegieadskillelse, linux-beholdere og softwareisolering. Den sidste del af læseplanen dækker sikre enklaver i computersystemer.
Beskyttelse af computersystemer og information mod skade, tyveri og ulovlig brug er generelt kendt som computersystemsikkerhed, nogle gange også omtalt som cybersikkerhed. Serienumre, fysiske sikkerhedsforanstaltninger, overvågning og alarmer bruges almindeligvis til at beskytte computerudstyr, ligesom de er for andet vigtigt eller følsomt udstyr. Information og systemadgang i software er på den anden side beskyttet ved hjælp af en række forskellige strategier, hvoraf nogle er ret komplicerede og kræver tilstrækkelige faglige kompetencer.
Fire vigtige farer behandles af sikkerhedsprocedurerne i forbindelse med computersystemers behandlede information og adgang:
- Datatyveri fra offentlige computere, såsom intellektuel ejendom,
- Hærværk, herunder brug af en computervirus til at ødelægge eller kapre data,
- Svig, såsom hackere (eller f.eks. bankpersonale), der omdirigerer penge til deres egne konti,
- Krænkelse af privatlivets fred, såsom indhentning af beskyttede personlige økonomiske eller medicinske data fra en stor database uden tilladelse.
Den mest basale metode til at sikre et computersystem mod tyveri, hærværk, krænkelse af privatlivets fred og anden uansvarlig adfærd er at spore og registrere de forskellige brugeres adgang til og aktivitet på systemet. Dette opnås ofte ved at give hver person, der har adgang til et system, en unik adgangskode. Computersystemet kan derefter spore brugen af disse adgangskoder automatisk, og noterer oplysninger som hvilke filer der blev tilgået med hvilke adgangskoder, og så videre. En anden sikkerhedsteknik er at opbevare et systems data på en anden enhed eller et andet medium, som normalt er utilgængeligt via computersystemet. Endelig er data ofte krypteret, hvilket kun tillader dem med en enkelt krypteringsnøgle at afkode dem (hvilket falder ind under begrebet kryptografi).
Siden introduktionen af modemer (enheder, der tillader computere at interagere via telefonlinjer) i slutningen af 1960'erne, har computersikkerhed været stadig mere afgørende. I 1980'erne forværrede udviklingen af personlige computere problemet ved at tillade hackere (uansvarligt agerende, typisk autodidakte computerprofessionelle, omgå begrænsninger for computeradgang) ulovligt at få adgang til vigtige computersystemer fra komforten af deres eget hjem. Med internettets eksplosive stigning i slutningen af det tyvende og begyndelsen af det enogtyvende århundrede blev computersikkerhed en stor bekymring. Udviklingen af forbedrede sikkerhedssystemer forsøger at reducere sådanne sårbarheder, men alligevel udvikler computerkriminalitet sig hele tiden, hvilket udgør nye risici.
At spørge, hvad der bliver sikret, er en teknik til at bestemme lighederne og forskellene i computersystemernes sikkerhed.
Som et eksempel,
- Informationssikkerhed er beskyttelse af data mod uautoriseret adgang, ændring og sletning.
- Applikationssikkerhed er beskyttelsen af en applikation mod cybertrusler såsom SQL-injektion, DoS-angreb, databrud og så videre.
- Computersikkerhed er defineret som beskyttelse af computersystemer, der kommunikerer over computernetværk med hensyn til kontrol ved at holde dem opdaterede og patchede.
- Netværkssikkerhed er defineret som sikring af både software- og hardwareteknologier i et netværksmiljø – cybersikkerhed defineres som at beskytte computersystemer, der kommunikerer over computernetværk med hensyn til kontrol ved at holde dem opdaterede og patchede.
Det er afgørende at genkende forskellene mellem disse udtryk, selvom der ikke altid er en klar forståelse af deres definitioner eller i hvor høj grad de overlapper eller er udskiftelige. Computersystemsikkerhed henviser til de sikkerhedsforanstaltninger, der er indført for at sikre fortroligheden, integriteten og tilgængeligheden af alle computersystemkomponenter.
Følgende er komponenterne i et computersystem, der skal beskyttes:
- Hardware eller de fysiske komponenter i et computersystem, såsom systemhukommelsen og diskdrevet.
- Firmware er ikke-flygtig software, der er permanent lagret på den ikke-flygtige hukommelse på en hardwareenhed og generelt er gennemsigtig for brugeren.
- Software er computerprogrammer, der giver brugerne tjenester såsom et operativsystem, tekstbehandler og webbrowser, der bestemmer, hvordan hardwaren fungerer for at behandle information i overensstemmelse med de mål, der er defineret af softwaren.
CIA-triaden beskæftiger sig primært med tre områder af computersystemsikkerhed:
- Fortrolighed sikrer, at kun den tilsigtede målgruppe har adgang til information.
- Integritet refererer til at forhindre uautoriserede parter i at ændre behandlede data.
- Tilgængelighed refererer til evnen til at forhindre uautoriserede parter i at ændre data.
Information og computerkomponenter skal være brugbare, samtidig med at de er beskyttet mod enkeltpersoner eller software, der ikke burde kunne få adgang til eller ændre dem.
De hyppigste sikkerhedstrusler på computersystemer
Computersystemers sikkerhedsrisici er potentielle farer, der kan forstyrre din computers rutinemæssige drift. Efterhånden som verden bliver mere digital, bliver cyberrisici mere udbredt. Følgende er de farligste typer computersikkerhedstrusler:
- Virus – en computervirus er et ondsindet program, der installeres uden brugerens viden på deres computer. Det replikerer sig selv og inficerer brugerens data og programmer. Det ultimative formål med en virus er at forhindre, at ofrets computer nogensinde fungerer korrekt eller overhovedet.
- Computerorm - en computerorm er en type software, der kan kopiere sig selv fra en computer til en anden uden behov for menneskelig indgriben. Fordi en orm kan replikere i store mængder og ved høje hastigheder, er der risiko for, at den æder din computers harddiskplads.
- Phishing – handling af en person, der udgiver sig for at være en troværdig person eller enhed for at stjæle kritiske økonomiske eller personlige oplysninger (herunder computersystemers adgangsoplysninger) via såkaldte phishing-e-mails eller instant messaging. Phishing er desværre utroligt nemt at udføre. Et offer bliver bedraget til at tro, at kommunikationen fra phisheren er en autentisk officiel kommunikation, og ofret giver frit følsomme personlige oplysninger.
- Botnet – et botnet er en gruppe computere, der er knyttet til internettet, og som er blevet inficeret med en computervirus af en hacker. Udtrykket zombiecomputer eller en bot refererer til en enkelt computer i botnettet. Ofrets computer, som er bot i botnet, vil blive udnyttet til ondsindede handlinger og større angreb som DDoS som følge af denne trussel.
- Rootkit – et rootkit er et computerprogram, der bevarer privilegeret adgang til en computer, mens det forsøger at skjule dens tilstedeværelse. Rootkittets controller vil være i stand til at fjernafvikle filer og ændre systemkonfigurationer på værtsmaskinen, når den er blevet installeret.
- Keylogger – keyloggere, ofte kendt som tastetryksloggere, kan overvåge en brugers computeraktivitet i realtid. Den registrerer alle tastetryk udført af brugerens tastatur. Brugen af en keylogger til at stjæle folks loginoplysninger, såsom brugernavn og adgangskode, er også en alvorlig trussel.
Disse er måske de mest udbredte sikkerhedsrisici, man kan støde på for nylig. Der er flere, såsom malware, wabbits, scareware, bluesnarfing og mange andre. Der er heldigvis teknikker til at forsvare computersystemer og deres brugere mod sådanne angreb.
Vi ønsker alle at holde vores computersystemer og personlige eller professionelle oplysninger private i denne digitale æra, derfor er computersystemers sikkerhed afgørende for at beskytte vores personlige oplysninger. Det er også vigtigt at holde vores computere sikre og sunde ved at undgå, at vira og malware forårsager ødelæggelse af systemets ydeevne.
Praksis inden for sikkerhed i computersystemer
I disse dage bliver computersystemers sikkerhedsrisici mere og mere innovative. For at beskytte mod disse komplicerede og stigende computersikkerhedsrisici og forblive sikker online, skal man bevæbne sig med information og ressourcer. Man kan tage følgende forholdsregler:
- Installation af pålidelig antivirus- og sikkerhedssoftware
- Fordi en firewall fungerer som en sikkerhedsvagt mellem internettet og dit lokale netværk, bør du aktivere den.
- Hold dig opdateret med den nyeste software og nyheder om dine enheder, og installer opdateringer, så snart de bliver tilgængelige.
- Hvis du er usikker på oprindelsen af en e-mail-vedhæftet fil, skal du ikke åbne den.
- Brug en unik kombination af tal, bogstaver og store bogstaver, og skift adgangskoder regelmæssigt.
- Mens du får adgang til internettet, skal du være forsigtig med pop-ups og drive-by downloads.
- At investere tiden i at lære om det grundlæggende i computersikkerhed og holde trit med de seneste cybertrusler
- Udfør daglige komplette systemscanninger og opret en regelmæssig systemsikkerhedskopieringsplan for at sikre, at dine data kan gendannes i tilfælde af, at din maskine fejler.
Bortset fra disse er der en række andre professionelle tilgange til at beskytte computersystemer. Aspekter, herunder tilstrækkelige sikkerhedsarkitektoniske specifikationer, kryptering og specialistsoftware, kan hjælpe med at beskytte computersystemer.
Desværre er antallet af cyberfarer hastigt stigende, og mere komplekse angreb dukker op. For at bekæmpe disse angreb og afbøde farer kræves der mere professionelle og specialiserede cybersikkerhedsfærdigheder.
For at gøre dig nærmere bekendt med certificeringspensum kan du udvide og analysere nedenstående tabel.
EITC/IS/CSSF Computer Systems Security Fundamentals Certification Curriculum refererer til didaktisk materiale med åben adgang i en videoform. Læreprocessen er opdelt i en trin-for-trin struktur (programmer -> lektioner -> emner), der dækker relevante læseplansdele. Der tilbydes også ubegrænset rådgivning med domæneeksperter.
Tjek for detaljer om certificeringsproceduren Sådan fungerer det.
EITC/IS/CCTF Computational Complexity Theory Fundamentals
EITC/IS/CCTF Computational Complexity Theory Fundamentals er det europæiske IT-certificeringsprogram om teoretiske aspekter af grundlaget for datalogi, som også er grundlaget for klassisk asymmetrisk offentlig nøglekryptografi, der i vid udstrækning anvendes på internettet.
Læseplanen for EITC/IS/CCTF Computational Complexity Theory Fundamentals dækker teoretisk viden om grundlaget for datalogi og beregningsmodeller på grundbegreber som deterministiske og ikke-deterministiske endelige tilstandsmaskiner, regulære sprog, kontekstfrie grammatikere og sprogteori, automatteori, Turing Maskiner, problemers afgørelighed, rekursion, logik og kompleksitet af algoritmer til grundlæggende sikkerhedsapplikationer inden for følgende struktur, der omfatter omfattende videodidaktisk indhold som reference for denne EITC-certificering.
En algoritmes beregningsmæssige kompleksitet er mængden af ressourcer, der kræves for at betjene den. Tids- og hukommelsesressourcer får særlig opmærksomhed. Et problems kompleksitet defineres som kompleksiteten af de bedste algoritmer til at løse det. Analyse af algoritmer er studiet af kompleksiteten af eksplicit givne algoritmer, hvorimod beregningsmæssig kompleksitetsteori er studiet af kompleksiteten af problemløsninger med bedst kendte algoritmer. Begge domæner er sammenflettet, fordi en algoritmes kompleksitet altid er en øvre begrænsning for kompleksiteten af det problem, den løser. Desuden er det ofte nødvendigt at sammenligne kompleksiteten af en bestemt algoritme med kompleksiteten af det problem, der skal løses, mens der konstrueres effektive algoritmer. I de fleste tilfælde er den eneste tilgængelige information om et problems vanskelighed, at det er mindre end kompleksiteten af de mest effektive kendte teknikker. Som et resultat er der meget overlap mellem algoritmeanalyse og kompleksitetsteori.
Kompleksitetsteori spiller ikke kun en vigtig rolle i grundlaget for beregningsmodeller som grundlag for datalogi, men også i grundlaget for klassisk asymmetrisk kryptografi (såkaldt offentlig nøglekryptografi), som er vidt udbredt i moderne netværk, især på internettet. Public-key-krypteringen er baseret på beregningsmæssige vanskeligheder af visse asymmetriske matematiske problemer, såsom for eksempel faktorisering af store tal til dets primfaktorer (denne operation er et svært problem i kompleksitetsteori-klassificeringen, fordi der ikke er kendte effektive klassiske algoritmer til at løse det med ressourcer, der skaleres polynomielt snarere end eksponentielt med stigningen af problemets inputstørrelse, hvilket er i modsætning til en meget simpel omvendt operation med at gange til kendte primfaktorer for at give det oprindelige store tal). Ved at bruge denne asymmetri i en arkitektur af offentlig nøglekryptografi (ved at definere en beregningsmæssigt asymmetrisk relation mellem den offentlige nøgle, der let kan beregnes fra en privat nøgle, mens den private nøgle ikke let kan computer fra en offentlig nøgle, kan man offentligt annoncerer den offentlige nøgle og gør det muligt for andre kommunikationssider at bruge den til asymmetrisk kryptering af data, som så kun kan dekrypteres med den koblede private nøgle, som ikke er beregnet tilgængelig for tredjeparter, hvilket gør kommunikationen sikker).
Teorien om beregningskompleksitet blev hovedsageligt udviklet på præstationer af datalogi og algoritmiske pionerer, såsom Alan Turing, hvis arbejde var afgørende for at bryde Nazitysklands Enigma-chiffer, som spillede en dybtgående rolle i, at allierede vandt Anden Verdenskrig. Krypteringsanalyse, der sigter mod at udtænke og automatisere de beregningsmæssige processer til at analysere data (hovedsageligt krypteret kommunikation) for at afdække den skjulte information, blev brugt til at bryde kryptografiske systemer og få adgang til indholdet af krypteret kommunikation, normalt af strategisk militær betydning. Det var også kryptoanalyse, der katalyserede udviklingen af de første moderne computere (som oprindeligt blev anvendt til et strategisk mål om kodebrud). British Colossus (betragtet som den første moderne elektroniske og programcomputer) blev forudgået af den polske "bombe", en elektronisk beregningsenhed designet af Marian Rejewski til at hjælpe med at bryde Enigma-cifre, og overdraget til Storbritannien af den polske efterretningstjeneste sammen med den erobrede tyske Enigma-krypteringsmaskine, efter at Polen blev invaderet af Tyskland i 1939. På basis af denne enhed udviklede Alan Turing sin mere avancerede pendant til med succes at bryde tysk krypteret kommunikation, som senere er blevet udviklet til moderne computere.
Fordi mængden af ressourcer, der kræves for at køre en algoritme, varierer med størrelsen af inputtet, udtrykkes kompleksiteten normalt som en funktion f(n), hvor n er inputstørrelsen, og f(n) enten er den værste kompleksitet ( den maksimale mængde ressourcer, der kræves på tværs af alle input af størrelse n) eller den gennemsnitlige sagskompleksitet (gennemsnittet af mængden af ressourcer over alle input af størrelse n). Antallet af nødvendige elementære operationer på et input af størrelse n er almindeligvis angivet som tidskompleksitet, hvor elementære operationer antages at tage en konstant mængde tid på en bestemt computer og kun ændres med en konstant faktor, når de køres på en anden maskine. Mængden af hukommelse, der kræves af en algoritme på et input af størrelse n, er kendt som rumkompleksitet.
Tid er den mest almindeligt betragtede ressource. Når udtrykket "kompleksitet" bruges uden kvalifikatoren, refererer det normalt til tidens kompleksitet.
De traditionelle tidsenheder (sekunder, minutter og så videre) anvendes ikke i kompleksitetsteori, da de er for afhængige af den valgte computer og teknologiens fremskridt. For eksempel kan en computer i dag udføre en algoritme væsentligt hurtigere end en computer fra 1960'erne, men alligevel skyldes dette teknologiske gennembrud i computerhardware snarere end en iboende kvalitet af algoritmen. Målet med kompleksitetsteori er at kvantificere algoritmernes iboende tidsbehov eller de grundlæggende tidsbegrænsninger, som en algoritme ville pålægge enhver computer. Dette opnås ved at tælle, hvor mange grundlæggende operationer der udføres under beregningen. Disse procedurer omtales almindeligvis som trin, fordi de anses for at tage konstant tid på en bestemt maskine (dvs. de er upåvirket af mængden af input).
En anden afgørende ressource er mængden af computerhukommelse, der kræves for at udføre algoritmer.
En anden ofte brugt ressource er mængden af aritmetiske operationer. I dette scenarie bruges udtrykket "aritmetisk kompleksitet". Tidskompleksiteten er generelt produktet af den aritmetiske kompleksitet med en konstant faktor, hvis en øvre begrænsning på størrelsen af den binære repræsentation af de tal, der forekommer under en beregning, er kendt.
Størrelsen af de heltal, der bruges under en beregning, er ikke begrænset til mange metoder, og det er urealistisk at antage, at aritmetiske operationer kræver en fast mængde tid. Som følge heraf kan tidskompleksiteten, også kendt som bitkompleksitet, være betydeligt højere end den aritmetiske kompleksitet. Den aritmetiske vanskelighed ved at beregne determinanten for en nn heltalsmatrix er for eksempel O(n^3) for standardteknikker (gaussisk eliminering). Fordi størrelsen af koefficienterne kan udvides eksponentielt under beregningen, er bitkompleksiteten af de samme metoder eksponentiel i n. Hvis disse teknikker bruges sammen med multi-modulær aritmetik, kan bitkompleksiteten reduceres til O(n^4).
Bitkompleksiteten refererer i formelle termer til antallet af operationer på bits, der kræves for at køre en algoritme. Det svarer til den tidsmæssige kompleksitet op til en konstant faktor i de fleste beregningsparadigmer. Antallet af operationer på maskinord, der kræves af computere, er proportionalt med bitkompleksiteten. For realistiske beregningsmodeller er tidskompleksiteten og bitkompleksiteten således identiske.
Den ressource, der ofte overvejes ved sortering og søgning, er mængden af sammenligninger af poster. Hvis dataene er godt arrangeret, er dette en god indikator for tidskompleksiteten.
På alle potentielle input er det umuligt at tælle antallet af trin i en algoritme. Fordi kompleksiteten af et input stiger med dets størrelse, er det almindeligvis repræsenteret som en funktion af inputets størrelse n (i bits), og kompleksiteten er derfor en funktion af n. For input af samme størrelse kan kompleksiteten af en algoritme imidlertid variere betydeligt. Som et resultat anvendes en række kompleksitetsfunktioner rutinemæssigt.
Worst-case kompleksiteten er summen af al kompleksitet for alle størrelse n input, mens den gennemsnitlige case kompleksitet er summen af al kompleksitet for alle størrelse n input (dette giver mening, da antallet af mulige input af en given størrelse er begrænset). Når begrebet "kompleksitet" bruges uden at blive nærmere defineret, tages der hensyn til den værste tidskompleksitet.
Worst-case og gennemsnit-case kompleksitet er notorisk svære at beregne korrekt. Desuden har disse nøjagtige værdier ringe praktisk anvendelse, fordi enhver ændring i maskin- eller beregningsparadigme ville variere kompleksiteten lidt. Desuden er ressourceforbrug ikke afgørende for små værdier af n, derfor er let implementering ofte mere tiltalende end lav kompleksitet for små n.
Af disse grunde lægges der mest opmærksomhed på kompleksitetens adfærd for høj n, det vil sige dens asymptotiske adfærd, når n nærmer sig uendelighed. Som et resultat er stor O-notation almindeligvis brugt til at angive kompleksitet.
Beregningsmodeller
Valget af en beregningsmodel, som består i at specificere de væsentlige operationer, der udføres i en tidsenhed, er afgørende for at bestemme kompleksiteten. Dette omtales nogle gange som en multitape Turing-maskine, når beregningsparadigmet ikke er specifikt beskrevet.
En deterministisk beregningsmodel er en, hvor maskinens efterfølgende tilstande og de operationer, der skal udføres, er fuldstændigt defineret af den foregående tilstand. Rekursive funktioner, lambdaregning og Turing-maskiner var de første deterministiske modeller. Random-access-maskiner (også kendt som RAM-maskiner) er et populært paradigme til at simulere computere i den virkelige verden.
Når beregningsmodellen ikke er defineret, antages der normalt en multitape Turing-maskine. På multitape Turing-maskiner er tidskompleksiteten den samme som på RAM-maskiner for de fleste algoritmer, omend der kan være behov for betydelig opmærksomhed i, hvordan data lagres i hukommelsen for at opnå denne ækvivalens.
Forskellige valg kan foretages på nogle trin af beregningen i en ikke-deterministisk computermodel, såsom ikke-deterministiske Turing-maskiner. I kompleksitetsteori betragtes alle mulige muligheder på samme tid, og ikke-deterministisk tidskompleksitet er mængden af tid, der kræves, når de bedste valg altid træffes. For at sige det på en anden måde, udføres beregningen samtidigt på så mange (identiske) processorer, som der kræves, og den ikke-deterministiske beregningstid er den tid, det tager den første processor at fuldføre beregningen. Denne parallelitet kan bruges i kvanteberegning ved at bruge overlejrede sammenfiltrede tilstande, når man kører specialiserede kvantealgoritmer, såsom Shors faktorisering af små heltal for eksempel.
Selvom en sådan beregningsmodel i øjeblikket ikke er praktisk anvendelig, har den teoretisk betydning, især i forhold til P = NP-problemet, som spørger, om kompleksitetsklasserne produceret ved at bruge "polynomiel tid" og "ikke-deterministisk polynomiel tid" som mindste øvre grænser er de samme. På en deterministisk computer kræver simulering af en NP-algoritme "eksponentiel tid." Hvis en opgave kan løses i polynomisk tid på et ikke-deterministisk system, hører den til NP-sværhedsklassen. Hvis et problem er i NP og ikke er nemmere end noget andet NP-problem, siges det at være NP-komplet. Rullesækkeproblemet, det rejsende sælgerproblem og det boolske tilfredshedsproblem er alle NP-komplette kombinatoriske problemer. Den mest kendte algoritme har eksponentiel kompleksitet for alle disse problemer. Hvis nogen af disse problemer kunne løses i polynomiel tid på en deterministisk maskine, så kunne alle NP-problemer også løses i polynomiel tid, og P = NP ville blive etableret. Fra 2017 er det almindeligt antaget, at P NP, hvilket antyder, at de værste situationer med NP-problemer er fundamentalt vanskelige at løse, dvs. tager langt længere tid end nogen mulig tid (årtier) givet interessante inputlængder.
Parallel og distribueret databehandling
Parallel og distribueret databehandling involverer opdeling af behandling på tværs af flere processorer, der alle arbejder på samme tid. Den grundlæggende skelnen mellem de forskellige modeller er metoden til at sende data mellem processorer. Datatransmission mellem processorer er typisk meget hurtig i parallel computing, hvorimod dataoverførsel mellem processorer i distribueret computing foregår på tværs af et netværk og dermed er væsentligt langsommere.
En beregning på N processorer tager mindst kvotienten med N af den tid, det tager på en enkelt processor. I virkeligheden, fordi nogle underopgaver ikke kan paralleliseres, og nogle processorer muligvis skal vente på et resultat fra en anden processor, vil denne teoretisk ideelle binding aldrig blive opnået.
Det centrale kompleksitetsproblem er således at udvikle algoritmer, således at produktet af regnetid med antallet af processorer er så tæt som muligt på den tid, det tager at udføre den samme beregning på en enkelt processor.
Kvanteberegning
En kvantecomputer er en computer med en kvantemekanik-baseret beregningsmodel. Church-Turing-afhandlingen gælder for kvantecomputere, hvilket antyder, at ethvert problem, som en kvantecomputer kan løse, også kan løses af en Turing-maskine. Nogle opgaver kan dog teoretisk løses ved hjælp af en kvantecomputer frem for en klassisk computer med en væsentlig lavere tidsmæssig kompleksitet. Foreløbig er dette strengt teoretisk, da ingen ved, hvordan man udvikler en praktisk kvantecomputer.
Kvantekompleksitetsteori blev skabt for at undersøge de forskellige typer problemer, der kan løses af kvantecomputere. Det bruges i post-kvantekryptografi, som er processen med at skabe kryptografiske protokoller, der er modstandsdygtige over for kvantecomputerangreb.
Problemets kompleksitet (nedre grænser)
Det infimum af kompleksiteten af de algoritmer, der kan løse problemet, herunder uopdagede teknikker, er kompleksiteten af problemet. Som et resultat er kompleksiteten af et problem lig med kompleksiteten af enhver algoritme, der løser det.
Som et resultat heraf repræsenterer enhver kompleksitet givet i stor O-notation en kompleksitet af både algoritmen og det medfølgende problem.
På den anden side er det ofte svært at opnå ikke-trivielle nedre grænser for problemkompleksitet, og der er få strategier til at gøre det.
For at løse de fleste problemer skal alle inputdata læses, hvilket tager tid i forhold til størrelsen af dataene. Som et resultat heraf har sådanne problemer i det mindste lineær kompleksitet eller, i big omega-notation, en kompleksitet på Ω(n).
Nogle problemer, såsom dem i computeralgebra og beregningsmæssig algebraisk geometri, har meget store løsninger. Fordi output skal skrives, er kompleksiteten begrænset af den maksimale størrelse af output.
Antallet af sammenligninger, der kræves til en sorteringsalgoritme, har en ikke-lineær nedre grænse for Ω(nlogn). Som et resultat er de bedste sorteringsalgoritmer de mest effektive, da deres kompleksitet er O(nlogn). Det faktum, at der er n! måder at organisere n ting på fører til denne nedre grænse. Fordi hver sammenligning deler denne samling af n! ordrer i to stykker, skal antallet af N sammenligninger, der kræves for at skelne alle ordrer, være 2N > n!, hvilket betyder O(nlogn) ved Stirlings formel.
At reducere et problem til et andet problem er en almindelig strategi for at opnå reducerede kompleksitetsbegrænsninger.
Algoritmeudvikling
Evaluering af en algoritmes kompleksitet er et vigtigt element i designprocessen, da det giver nyttige oplysninger om den ydeevne, der kan forventes.
Det er en hyppig misforståelse, at som et resultat af Moores lov, der forudsiger den eksponentielle vækst af moderne computerkraft, vil evaluering af kompleksiteten af algoritmer blive mindre relevant. Dette er forkert, fordi den øgede effekt giver mulighed for at behandle enorme mængder data (big data). For eksempel bør enhver algoritme fungere godt på mindre end et sekund, når du sorterer alfabetisk en liste med nogle få hundrede poster, såsom bibliografien for en bog. På den anden side, for en million indtastninger (for eksempel telefonnumrene i en stor by), ville de grundlæggende algoritmer, der kræver O(n2) sammenligninger skulle udføre en billion sammenligninger, hvilket ville tage tre timer med en hastighed på 10 millioner sammenligninger i sekundet. Quicksort og merge sort kræver på den anden side kun nlogn-sammenligninger (som gennemsnitlig-case-kompleksitet for førstnævnte, som worst-case-kompleksitet for sidstnævnte). Dette producerer omkring 30,000,000 sammenligninger for n = 1,000,000, hvilket kun ville tage 3 sekunder ved 10 millioner sammenligninger i sekundet.
Som et resultat heraf kan vurdering af kompleksitet muliggøre eliminering af mange ineffektive algoritmer før implementering. Dette kan også bruges til at finjustere komplekse algoritmer uden at skulle teste alle mulige varianter. Studiet af kompleksitet gør det muligt at fokusere indsatsen for at øge effektiviteten af en implementering ved at bestemme de dyreste trin i en kompleks algoritme.
For at gøre dig nærmere bekendt med certificeringspensum kan du udvide og analysere nedenstående tabel.
EITC/IS/CCTF Computational Complexity Theory Fundamentals Certification Curriculum refererer til didaktisk materiale med åben adgang i en videoform. Læreprocessen er opdelt i en trin-for-trin struktur (programmer -> lektioner -> emner), der dækker relevante læseplansdele. Der tilbydes også ubegrænset rådgivning med domæneeksperter.
Tjek for detaljer om certificeringsproceduren Sådan fungerer det.
EITC/IS/ACC avanceret klassisk kryptografi
EITC/IS/ACC Advanced Classical Cryptography er det europæiske it-certificeringsprogram, der fremmer ekspertiseniveauet inden for klassisk kryptografi, primært med fokus på public-key kryptografi, med en introduktion til praktiske public-key ciphers, samt digitale signaturer, offentlig nøgle infrastruktur og sikkerhedscertifikater, der er meget udbredt på internettet.
Læseplanen for EITC/IS/ACC Advanced Classical Cryptography fokuserer på den offentlige nøgle (asymmetrisk) kryptografi, startende med introduktionen til Diffie-Hellman Key Exchange og det diskrete logproblem (inklusive dets generalisering), og derefter videre til krypteringen med diskret logproblem, der dækker Elgamal Encryption Scheme, elliptiske kurver og elliptisk kurvekryptering (ECC), digitale signaturer (inklusive sikkerhedstjenester og Elgamal Digital Signature), hash-funktioner (inklusive SHA-1 har funktion), meddelelsesgodkendelseskoder (inkl , der omfatter omfattende videodidaktisk indhold som reference for denne EITC-certificering.
Kryptografi refererer til måder til sikker kommunikation i nærvær af en modstander. Kryptografi er i bredere forstand processen med at skabe og analysere protokoller, der forhindrer tredjeparter eller offentligheden i at få adgang til private (krypterede) beskeder. Moderne klassisk kryptografi er baseret på flere hovedtræk ved informationssikkerhed, såsom datafortrolighed, dataintegritet, autentificering og ikke-afvisning. I modsætning til kvantekryptografi, som er baseret på radikalt forskellige kvantefysiske regler, der karakteriserer naturen, refererer klassisk kryptografi til kryptografi baseret på klassiske fysiklove. Områderne matematik, datalogi, elektroteknik, kommunikationsvidenskab og fysik mødes alle i klassisk kryptografi. Elektronisk handel, chip-baserede betalingskort, digitale valutaer, computeradgangskoder og militær kommunikation er alle eksempler på kryptografiapplikationer.
Før den nuværende æra var kryptografi næsten synonymt med kryptering, hvilket gjorde information fra læsbar til uforståelig nonsens. For at forhindre angribere i at få adgang til en krypteret besked, deler afsenderen kun afkodningsprocessen med de tilsigtede modtagere. Navnene Alice ("A") for afsenderen, Bob ("B") for den påtænkte modtager og Eve ("aflyttet") for modstanderen bruges ofte i kryptografilitteratur.
Kryptografimetoder er blevet mere og mere komplekse, og dens anvendelser er blevet mere diversificerede, siden udviklingen af rotor-chiffermaskiner i Første Verdenskrig og introduktionen af computere i Anden Verdenskrig.
Moderne kryptografi er stærkt afhængig af matematisk teori og datalogi praksis; kryptografiske metoder er bygget op omkring beregningshårdhedsantagelser, hvilket gør dem vanskelige for enhver modstander at bryde i praksis. Selvom det teoretisk er muligt at bryde ind i et veldesignet system, er det umuligt at gøre det i praksis. Sådanne ordninger omtales som "beregningssikre", hvis de er tilstrækkeligt konstrueret; ikke desto mindre kræver teoretiske gennembrud (f.eks. forbedringer i heltalsfaktoriseringsmetoder) og hurtigere computerteknologi konstant revurdering og om nødvendigt tilpasning af disse designs. Der er informationsteoretisk sikre systemer, såsom engangspuden, der kan bevises at være ubrydelige selv med uendelig computerkraft, men de er betydeligt sværere at anvende i praksis end de bedste teoretisk nedbrydelige, men beregningssikre ordninger.
I informationsalderen har fremskridtet inden for kryptografisk teknologi frembragt en række juridiske udfordringer. Mange nationer har klassificeret kryptografi som et våben, hvilket begrænser eller forbyder dets brug og eksport på grund af dets potentiale for spionage og oprør. Efterforskere kan tvinge til afgivelse af krypteringsnøgler til dokumenter, der er relevante for en undersøgelse, nogle steder, hvor kryptografi er lovligt. I tilfælde af digitale medier spiller kryptografi også en nøglerolle i forvaltning af digitale rettigheder og konflikter om krænkelse af ophavsret.
Udtrykket "kryptograf" (i modsætning til "kryptogram") blev første gang brugt i det nittende århundrede, i Edgar Allan Poes novelle "The Gold-Bug."
Indtil for nylig refererede kryptografi næsten udelukkende til "kryptering", som er handlingen med at omdanne almindelige data (kendt som almindelig tekst) til et ulæseligt format (kaldet chiffertekst). Dekryptering er det modsatte af kryptering, dvs. at gå fra uforståelig chiffertekst til almindelig tekst. En cipher (eller cypher) er et sæt af teknikker, der udfører kryptering og dekryptering i omvendt rækkefølge. Algoritmen og i hvert tilfælde en "nøgle" er ansvarlige for chifferens detaljerede udførelse. Nøglen er en hemmelighed (helst kendt kun af kommunikanterne), som bruges til at dekryptere chifferteksten. Det er almindeligvis en streng af tegn (ideelt kort, så det kan huskes af brugeren). Et "kryptosystem" er den ordnede samling af elementer af endelige potentielle klartekster, cyphertekster, nøgler og de krypterings- og dekrypteringsprocedurer, der svarer til hver nøgle i formelle matematiske termer. Nøgler er afgørende både formelt og praktisk, fordi cifre med faste nøgler nemt kan brydes ved kun at bruge cipherens information, hvilket gør dem ubrugelige (eller endda kontraproduktive) til de fleste formål.
Historisk set blev chiffer ofte brugt uden yderligere procedurer såsom autentificering eller integritetstjek for kryptering eller dekryptering. Kryptosystemer er opdelt i to kategorier: symmetriske og asymmetriske. Den samme nøgle (den hemmelige nøgle) bruges til at kryptere og dekryptere en besked i symmetriske systemer, som var de eneste kendte indtil 1970'erne. Fordi symmetriske systemer bruger kortere nøglelængder, er datamanipulation i symmetriske systemer hurtigere end i asymmetriske systemer. Asymmetriske systemer krypterer en kommunikation med en "offentlig nøgle" og dekrypterer den ved hjælp af en lignende "privat nøgle". Brugen af asymmetriske systemer forbedrer kommunikationssikkerheden på grund af vanskeligheden ved at bestemme forholdet mellem de to nøgler. RSA (Rivest–Shamir–Adleman) og ECC er to eksempler på asymmetriske systemer (Elliptic Curve Cryptography). Den meget brugte AES (Advanced Encryption Standard), som afløste den tidligere DES, er et eksempel på en symmetrisk algoritme af høj kvalitet (Data Encryption Standard). De forskellige teknikker til sammenfiltring af børns sprog, såsom griselatin eller anden overhøjde, og faktisk alle kryptografiske skemaer, uanset hvor alvorligt de er, fra enhver kilde forud for introduktionen af engangsblokken i begyndelsen af det tyvende århundrede, er eksempler på lav kvalitet symmetriske algoritmer.
Udtrykket "kode" bruges ofte i daglig tale til at henvise til enhver teknik til kryptering eller skjulning af beskeder. I kryptografi refererer kode imidlertid til, at et kodeord erstattes af en enhed af almindelig tekst (dvs. et meningsfuldt ord eller en sætning) (f.eks. erstatter "wallaby" "angreb ved daggry"). I modsætning hertil skabes en cyphertext ved at ændre eller erstatte et element under et sådant niveau (f.eks. et bogstav, en stavelse eller et par bogstaver) for at danne en cyphertext.
Krypteringsanalyse er undersøgelsen af måder at dekryptere krypterede data på uden at have adgang til den nødvendige nøgle for at gøre det; med andre ord er det studiet af, hvordan man "bryder" krypteringssystemer eller deres implementeringer.
På engelsk bruger nogle mennesker i flæng udtrykkene "kryptografi" og "kryptologi", mens andre (herunder amerikansk militær praksis generelt) bruger "kryptografi" til at henvise til brug og praksis af kryptografiske teknikker og "kryptologi" for at henvise til det kombinerede studie af kryptografi og kryptoanalyse. Engelsk er mere tilpasningsdygtig end en række andre sprog, hvor "kryptologi" (som praktiseret af kryptologer) altid bruges i anden betydning. Steganografi er nogle gange inkluderet i kryptologi, ifølge RFC 2828.
Kryptolingvistik er studiet af sprogegenskaber, der har en vis relevans i kryptografi eller kryptologi (for eksempel frekvensstatistik, bogstavkombinationer, universelle mønstre og så videre).
Kryptografi og kryptoanalyse har en lang historie.
Historien om kryptografi er hovedartiklen.
Før den moderne æra var kryptografi primært beskæftiget med meddelelsesfortrolighed (dvs. kryptering) - konvertering af meddelelser fra en forståelig til en uforståelig form og igen, hvilket gør dem ulæselige af opfangere eller aflyttere uden hemmelig viden (nemlig nøglen til dekryptering). af denne besked). Kryptering blev designet til at holde samtaler mellem spioner, militærledere og diplomater private. I de seneste årtier er disciplinen vokset til blandt andet at inkorporere teknikker som kontrol af meddelelsesintegritet, autentificering af afsender/modtagers identitet, digitale signaturer, interaktive beviser og sikker beregning.
De to mest almindelige klassiske chiffertyper er transponeringscifre, som systematisk erstatter bogstaver eller grupper af bogstaver med andre bogstaver eller grupper af bogstaver (f.eks. bliver 'hej verden' til 'ehlol owrdl' i et trivielt simpelt omarrangeringsskema), og substitutionscifre, som systematisk erstatter bogstaver eller grupper af bogstaver med andre bogstaver eller grupper af bogstaver (f.eks. bliver 'flyve med det samme' til 'gmz bu Simple versioner af begge har aldrig givet meget privatliv fra snedige modstandere. Cæsar-cifferet var et tidligt substitutionsciffer, hvori hvert bogstav i klarteksten blev erstattet af et bogstav et vist antal positioner nede i alfabetet. Ifølge Suetonius brugte Julius Cæsar det med et tremandsskifte til at kommunikere med sine generaler. Et tidligt hebraisk ciffer, Atbash, er et eksempel. Den ældste kendte brug af kryptografi er en udskåret chiffertekst på sten i Egypten (ca. 1900 f.v.t.), men det er muligt, at dette blev gjort til glæde for læsekyndige tilskuere snarere end for at skjule information.
Krypter er rapporteret at have været kendt af de klassiske grækere (f.eks. den scytale transposition-chiffer, der hævdes at være blevet brugt af det spartanske militær). Steganografi (praksis med at skjule selv tilstedeværelsen af en kommunikation for at holde den privat) blev også opfundet i oldtiden. En sætning tatoveret på en slaves barberede hoved og gemt under det gengroede hår, ifølge Herodot. Brugen af usynlig blæk, mikroprikker og digitale vandmærker til at skjule information er mere aktuelle forekomster af steganografi.
Kautiliyam og Mulavediya er to typer cifre nævnt i Indiens 2000 år gamle Kamasutra af Vtsyyana. Chifferbogstaverstatningerne i Kautiliyam er baseret på fonetiske forhold, såsom at vokaler bliver konsonanter. Chifferalfabetet i Mulavediya består af matchende bogstaver og anvender gensidige bogstaver.
Ifølge den muslimske lærde Ibn al-Nadim havde Sassanid Persien to hemmelige skrifter: h-dabrya (bogstaveligt talt "Kongens skrift"), som blev brugt til officiel korrespondance, og rz-saharya, som blev brugt til at udveksle hemmelige beskeder med andre lande.
I sin bog The Codebreakers skriver David Kahn, at nutidig kryptologi begyndte med araberne, som var de første til omhyggeligt at dokumentere kryptoanalytiske procedurer. The Book of Cryptographic Messages er skrevet af Al-Khalil (717-786), og den indeholder den tidligste brug af permutationer og kombinationer til at liste alle tænkelige arabiske ord med og uden vokaler.
Chiffertekster genereret af en klassisk chiffer (såvel som nogle moderne chiffer) afslører statistisk information om almindelig tekst, som kan bruges til at bryde chifferen. Næsten alle sådanne cifre kunne brydes af en intelligent angriber efter opdagelsen af frekvensanalyse, muligvis af den arabiske matematiker og polymat Al-Kindi (også kendt som Alkindus) i det 9. århundrede. Klassiske cifre er stadig populære i dag, omend i høj grad som puslespil (se kryptogram). Risalah fi Istikhraj al-Mu'amma (Manuskript til dechifrering af kryptografiske meddelelser) blev skrevet af Al-Kindi og dokumenterede den første kendte brug af frekvensanalyse-krypteringsteknikker.
Nogle udvidede historiekrypteringsmetoder, såsom homofonisk chiffer, der har tendens til at udjævne frekvensfordelingen, drager muligvis ikke fordel af sprogbogstavfrekvenser. Sprogbogstavsgruppe (eller n-gram) frekvenser kan give et angreb for disse cifre.
Indtil opdagelsen af den polyalfabetiske chiffer, især af Leon Battista Alberti omkring 1467, var praktisk talt alle chiffer tilgængelige for kryptoanalyse ved hjælp af frekvensanalysemetoden, selvom der er nogle beviser på, at det allerede var kendt af Al-Kindi. Alberti kom op med ideen om at bruge separate cifre (eller substitutionsalfabeter) til forskellige dele af en kommunikation (måske for hvert efterfølgende bogstav i almindelig tekst ved grænsen). Han skabte også, hvad der menes at være den første automatiske krypteringsenhed, et hjul, der udførte en del af hans design. Kryptering i Vigenère-chifferet, en polyalfabetisk cipher, styres af et nøgleord, der styrer bogstaverstatning baseret på hvilket bogstav i nøgleordet, der bruges. Charles Babbage demonstrerede, at Vigenère-chifferet var sårbart over for Kasiski-analyse i midten af det nittende århundrede, men Friedrich Kasiski offentliggjorde sine resultater ti år senere.
På trods af det faktum, at frekvensanalyse er en kraftfuld og bred teknik mod mange cifre, er kryptering forblevet effektiv i praksis, fordi mange kommende kryptoanalytikere er uvidende om teknikken. At bryde en besked uden at bruge frekvensanalyse krævede viden om den anvendte chiffer og muligvis den involverede nøgle, hvilket gjorde spionage, bestikkelse, indbrud, frafald og andre kryptoanalytisk uinformerede taktikker mere tiltrækkende. Hemmeligheden bag en chifferalgoritme blev i det 19. århundrede i sidste ende anerkendt som hverken en rimelig eller gennemførlig forsikring om meddelelsessikkerhed; faktisk bør enhver passende kryptografisk ordning (inklusive ciphers) forblive sikker, selvom modstanderen fuldt ud forstår selve cipher-algoritmen. Nøglens sikkerhed bør være tilstrækkelig til, at en god chiffer kan bevare fortroligheden i tilfælde af et overfald. Auguste Kerckhoffs udtalte første gang dette grundlæggende princip i 1883, og det er kendt som Kerckhoffs princip; alternativt, og mere ligeud, gentog Claude Shannon, opfinderen af informationsteorien og de grundlæggende principper for teoretisk kryptografi, det som Shannons Maxim - 'fjenden kender systemet'.
For at hjælpe med ciphers er mange fysiske gadgets og assistance blevet brugt. Det antikke Grækenlands scytale, en stang, der angiveligt blev brugt af spartanerne som et værktøj til transponering af chiffer, kan have været en af de første. Andre hjælpemidler blev udtænkt i middelalderen, såsom chiffergitteret, som også blev brugt til steganografi. Med udviklingen af polyalfabetiske cifre blev mere sofistikerede hjælpemidler såsom Albertis ciffer-skive, Johannes Trithemius' tabula recta-skema og Thomas Jeffersons hjulciffer tilgængelige (ikke offentligt kendt og genopfundet uafhængigt af Bazeries omkring 1900). Mange mekaniske krypterings-/dekrypteringssystemer blev udtænkt og patenteret i begyndelsen af det tyvende århundrede, inklusive rotormaskiner, som var berømt ansat af den tyske regering og militær fra slutningen af 1920'erne til Anden Verdenskrig. Efter WWI resulterede chifferne implementeret af forekomster af højere kvalitet af disse maskindesigns i en betydelig stigning i kryptoanalytiske vanskeligheder.
Kryptografi beskæftigede sig primært med sproglige og leksikografiske mønstre før det tidlige tyvende århundrede. Siden da har fokus udviklet sig, og kryptografi omfatter nu aspekter af informationsteori, beregningskompleksitet, statistik, kombinatorik, abstrakt algebra, talteori og finit matematik generelt. Kryptografi er en type teknik, men den er unik, idet den beskæftiger sig med aktiv, intelligent og fjendtlig modstand, hvorimod andre typer teknik (såsom civil- eller kemiteknik) blot skal beskæftige sig med naturlige kræfter, der er neutrale. Sammenhængen mellem kryptografiske vanskeligheder og kvantefysik bliver også undersøgt.
Udviklingen af digitale computere og elektronik hjalp kryptering ved at give mulighed for at skabe betydeligt mere sofistikerede cifre. Desuden, i modsætning til traditionelle ciphers, som udelukkende krypterede skriftsprogstekster, tillod computere kryptering af enhver type data, der kunne repræsenteres i ethvert binært format; dette var nyt og afgørende. I både chifferdesign og kryptoanalyse har computere så fortrængt sprogkryptografi. I modsætning til klassiske og mekaniske metoder, som primært manipulerer traditionelle tegn (dvs. bogstaver og tal) direkte, opererer mange computercifre på binære bitsekvenser (nogle gange i grupper eller blokke). Computere har på den anden side hjulpet kryptoanalysen, som delvist har kompenseret for øget krypteringskompleksitet. På trods af dette er gode moderne cifre forblevet foran kryptoanalysen; det er ofte tilfældet, at brugen af en god chiffer er meget effektiv (dvs. hurtig og kræver få ressourcer, såsom hukommelse eller CPU-kapacitet), hvorimod at bryde den kræver en indsats, der er mange størrelsesordener større og langt større end det, der kræves for nogen klassisk chiffer, hvilket effektivt gør krypteringsanalyse umulig.
Moderne kryptografi får sin debut.
De nye mekaniske enheders kryptoanalyse viste sig at være udfordrende og tidskrævende. Under Anden Verdenskrig fremmede kryptoanalytiske aktiviteter i Bletchley Park i Det Forenede Kongerige opfindelsen af mere effektive metoder til at udføre gentagne opgaver. Colossus, verdens første fuldstændig elektroniske, digitale, programmerbare computer, blev udviklet til at hjælpe med afkodningen af cifre skabt af den tyske hærs Lorenz SZ40/42-maskine.
Kryptografi er et relativt nyt felt inden for åben akademisk forskning, der først er begyndt i midten af 1970'erne. IBM-medarbejdere udtænkte den algoritme, der blev til Federal (dvs. USA) Data Encryption Standard; Whitfield Diffie og Martin Hellman offentliggjorde deres nøgleaftalealgoritme; og Martin Gardners Scientific American-spalte offentliggjorde RSA-algoritmen. Kryptografi er siden vokset i popularitet som en teknik til kommunikation, computernetværk og computersikkerhed generelt.
Der er dybe bånd til abstrakt matematik, eftersom adskillige moderne kryptografiske tilgange kun kan holde deres nøgler hemmelige, hvis visse matematiske problemer er uløselige, såsom heltalsfaktorisering eller diskrete logaritmeproblemer. Der er blot en håndfuld kryptosystemer, der har vist sig at være 100 % sikre. Claude Shannon beviste, at engangsblokken er en af dem. Der er nogle få nøglealgoritmer, der har vist sig at være sikre under visse forhold. Manglende evne til at faktorisere ekstremt store heltal, for eksempel, er grundlaget for at tro, at RSA og andre systemer er sikre, men bevis for ubrydelighed er uopnåeligt, fordi det underliggende matematiske problem forbliver uløst. I praksis er disse meget brugt, og de fleste kompetente iagttagere mener, at de er ubrydelige i praksis. Der findes systemer, der ligner RSA, såsom et udviklet af Michael O. Rabin, der beviseligt er sikre, hvis factoring n = pq er umuligt; dog er de praktisk talt ubrugelige. Problemet med diskret logaritme er grundlaget for at tro, at nogle andre kryptosystemer er sikre, og der er lignende, mindre praktiske systemer, der beviseligt er sikre med hensyn til det diskrete logaritmeproblems løselighed eller uløselighed.
Kryptografiske algoritmer og systemdesignere skal overveje mulige fremtidige fremskridt, når de arbejder på deres ideer, ud over at være bevidste om kryptografisk historie. For eksempel, efterhånden som computerens processorkraft er blevet forbedret, er bredden af brute-force-angreb vokset, og derfor er de nødvendige nøglelængder også vokset. Nogle kryptografiske systemdesignere, der udforsker post-kvantekryptografi, overvejer allerede de potentielle konsekvenser af kvanteberegning; den annoncerede nært forestående af beskedne implementeringer af disse maskiner kan gøre behovet for forebyggende forsigtighed mere end blot spekulativt.
Klassisk kryptografi i nutiden
Symmetrisk (eller privat nøgle) kryptografi er en form for kryptering, hvor afsender og modtager bruger den samme nøgle (eller, mindre almindeligt, hvor deres nøgler er forskellige, men relateret på en let beregnelig måde og opbevares hemmeligt, privat ). Indtil juni 1976 var dette den eneste form for kryptering, der var offentligt kendt.
Blok-cifre og stream-cifre bruges begge til at implementere symmetriske nøgle-cifre. En blokchiffer krypterer input i blokke af almindelig tekst i stedet for individuelle tegn, ligesom en stream-chiffer gør.
Den amerikanske regering har udpeget Data Encryption Standard (DES) og Advanced Encryption Standard (AES) som kryptografistandarder (omend DES's certificering til sidst blev trukket tilbage, når AES blev etableret). DES (især dens stadig godkendte og væsentligt mere sikre triple-DES-variation) forbliver populær på trods af dens afskrivning som en officiel standard; det bruges i en lang række applikationer, fra ATM-kryptering til e-mail-privatliv og sikker fjernadgang. Der er blevet opfundet og udgivet en række forskellige blokcifre, med varierende grader af succes. Mange, inklusive nogle designet af kvalificerede praktikere, såsom FEAL, er blevet omfattende ødelagt.
Strømchiffer genererer, i modsætning til blokcifre, en uendelig lang strøm af nøglemateriale, der er koblet med almindelig tekst bit-for-bit eller tegn-for-tegn, svarende til engangsblokken. Outputstrømmen af en strømchiffer genereres fra en skjult intern tilstand, der ændres, efterhånden som cifferen fungerer. Det hemmelige nøglemateriale bruges først til at opsætte den interne tilstand. Strømchifferet RC4 er flittigt brugt. Ved at skabe blokke af en nøglestrøm (i stedet for en pseudotilfældig talgenerator) og bruge en XOR-operation til hver bit af klarteksten med hver bit af nøglestrømmen, kan blokchiffere anvendes som strømcifre.
Beskedgodkendelseskoder (MAC'er) ligner kryptografiske hash-funktioner, med den undtagelse, at en hemmelig nøgle kan bruges til at validere hashværdien ved modtagelse; denne ekstra forvikling forhindrer et angreb mod nøgne fordøjelsesalgoritmer, og anses derfor for at være umagen værd. En tredje slags kryptografisk teknik er kryptografiske hashfunktioner. De tager meddelelser af enhver længde som input og udsender en lille hash med fast længde, der for eksempel kan bruges i digitale signaturer. En angriber kan ikke finde to beskeder, der producerer den samme hash ved hjælp af gode hash-algoritmer. MD4 er en meget brugt, men nu defekt hash-funktion; MD5, en forbedret form for MD4, er ligeledes meget udbredt, men brudt i praksis. Secure Hash Algorithm-serien af MD5-lignende hashalgoritmer blev udviklet af det amerikanske nationale sikkerhedsagentur: Den amerikanske standardmyndighed besluttede, at det var "forsigtigt" ud fra et sikkerhedssynspunkt at udvikle en ny standard for "betydeligt at forbedre robustheden af NISTs overordnede hashalgoritme værktøjskasse." SHA-1 er meget brugt og mere sikker end MD5, men kryptoanalytikere har identificeret angreb mod det; SHA-2-familien forbedrer SHA-1, men er sårbar over for sammenstød fra 2011; og SHA-2-familien forbedrer i forhold til SHA-1, men er sårbar over for sammenstød. Som følge heraf skulle der i 2012 afholdes en hashfunktionsdesignkonkurrence for at vælge en ny amerikansk national standard, kendt som SHA-3. Konkurrencen kom til en konklusion den 2. oktober 2012, da National Institute of Standards and Technology (NIST) annoncerede Keccak som den nye SHA-3 hash-algoritme. Kryptografiske hash-funktioner, i modsætning til inverterbare blok- og stream-cifre, giver et hash-output, der ikke kan bruges til at gendanne de originale inputdata. Kryptografiske hash-funktioner bruges til at kontrollere ægtheden af data erhvervet fra en utroværdig kilde eller til at tilføje en ekstra grad af beskyttelse.
Selvom en meddelelse eller et sæt meddelelser kan have en anden nøgle end andre, anvender symmetriske nøglekryptosystemer den samme nøgle til kryptering og dekryptering. Den nøglestyring, der kræves for at bruge symmetriske cifre sikkert, er en stor ulempe. Hvert enkelt par af kommunikerende parter bør ideelt set dele en anden nøgle, samt muligvis en anden chiffertekst for hver sendt chiffertekst. Antallet af nødvendige nøgler vokser i direkte forhold til antallet af netværksdeltagere, hvilket nødvendiggør komplicerede nøglehåndteringsteknikker for at holde dem alle konsistente og hemmelige.
Whitfield Diffie og Martin Hellman opfandt begrebet offentlig nøgle (også kendt som asymmetrisk nøgle) kryptografi i et banebrydende værk fra 1976, hvor to distinkte, men matematisk relaterede nøgler - en offentlig nøgle og en privat nøgle - er brugt. Selvom de er uløseligt forbundet, er et offentligt nøglesystem bygget på en sådan måde, at det er beregningsmæssigt umuligt at beregne den ene nøgle ("den private nøgle") fra den anden ("den offentlige nøgle"). Snarere produceres begge nøgler i hemmelighed, som et forbundet par. Offentlig nøglekryptering er ifølge historikeren David Kahn "den mest revolutionære nye idé på området, siden polyalfabetisk substitution opstod i renæssancen."
Den offentlige nøgle i et offentlig nøglekryptosystem kan frit transmitteres, men den koblede private nøgle skal holdes skjult. Den offentlige nøgle bruges til kryptering, hvorimod den private eller hemmelige nøgle bruges til dekryptering i et krypteringsskema med offentlig nøgle. Mens Diffie og Hellman ikke var i stand til at skabe et sådant system, demonstrerede de, at offentlig nøglekryptering var tænkelig ved at levere Diffie-Hellman nøgleudvekslingsprotokollen, en løsning, der gør det muligt for to personer i det skjulte at blive enige om en delt krypteringsnøgle. Det mest udbredte format for offentlige nøglecertifikater er defineret af X.509-standarden.
Udgivelsen af Diffie og Hellman udløste en udbredt akademisk interesse for at udvikle et praktisk krypteringssystem med offentlig nøgle. Ronald Rivest, Adi Shamir og Len Adleman vandt til sidst konkurrencen i 1978, og deres svar blev kendt som RSA-algoritmen.
Ud over at være de tidligste offentligt kendte forekomster af højkvalitets public-key algoritmer, har Diffie-Hellman og RSA algoritmerne været blandt de mest brugte. Cramer-Shoup-kryptosystemet, ElGamal-kryptering og adskillige elliptiske kurvetilgange er eksempler på asymmetriske nøglealgoritmer.
GCHQ-kryptografer forudså adskillige videnskabelige fremskridt, ifølge et dokument udstedt i 1997 af Government Communications Headquarters (GCHQ), en britisk efterretningsorganisation. Ifølge legenden blev asymmetrisk nøglekryptografi opfundet af James H. Ellis omkring 1970. Clifford Cocks opfandt en løsning i 1973, der var ekstremt lig RSA med hensyn til design. Malcolm J. Williamson er krediteret for at opfinde Diffie-Hellman nøgleudveksling i 1974.
Digitale signatursystemer implementeres også ved hjælp af offentlig nøglekryptering. En digital signatur ligner en traditionel signatur, idet det er nemt for brugeren at skabe, men alligevel svært for andre at forfalske. Digitale signaturer kan også være permanent knyttet til indholdet af den kommunikation, der underskrives; det betyder, at de ikke kan 'flyttes' fra et dokument til et andet uden at blive opdaget. Der er to algoritmer i digitale signatursystemer: en til signering, som bruger en hemmelig nøgle til at behandle meddelelsen (eller en hash af meddelelsen eller begge), og en til verifikation, som bruger den matchende offentlige nøgle med meddelelsen til at validere signaturens ægthed. To af de mest brugte digitale signaturmetoder er RSA og DSA. Offentlige nøgleinfrastrukturer og mange netværkssikkerhedssystemer (f.eks. SSL/TLS, mange VPN'er) er afhængige af digitale signaturer for at fungere.
Den beregningsmæssige kompleksitet af "hårde" problemer, såsom dem, der opstår fra talteori, bruges ofte til at udvikle offentlige nøglemetoder. Heltalsfaktoriseringsproblemet er relateret til hårdheden af RSA, mens det diskrete logaritmeproblem er relateret til Diffie-Hellman og DSA. Sikkerheden ved elliptisk kurvekryptografi er baseret på talteoretiske problemer med elliptisk kurve. De fleste offentlige nøglealgoritmer inkluderer operationer som modulær multiplikation og eksponentiering, som er væsentligt dyrere ved beregningen end de teknikker, der bruges i de fleste blokcifre, især med normale nøglestørrelser, på grund af vanskeligheden ved de underliggende problemer. Som følge heraf er offentlige nøglekryptosystemer ofte hybridkryptosystemer, hvor meddelelsen er krypteret med en hurtig symmetrisk nøglealgoritme af høj kvalitet, mens den relevante symmetriske nøgle sendes med beskeden, men krypteres med en offentlig nøglealgoritme. Hybride signaturskemaer, hvor en kryptografisk hash-funktion beregnes, og kun den resulterende hash er digitalt signeret, er også almindeligt brugt.
Hash-funktioner i kryptografi
Kryptografiske hash-funktioner er kryptografiske algoritmer, der producerer og bruger specifikke nøgler til at kryptere data til enten symmetrisk eller asymmetrisk kryptering, og de kan opfattes som nøgler. De tager meddelelser af enhver længde som input og udsender en lille hash med fast længde, der for eksempel kan bruges i digitale signaturer. En angriber kan ikke finde to beskeder, der producerer den samme hash ved hjælp af gode hash-algoritmer. MD4 er en meget brugt, men nu defekt hash-funktion; MD5, en forbedret form for MD4, er ligeledes meget udbredt, men brudt i praksis. Secure Hash Algorithm-serien af MD5-lignende hash-algoritmer blev udviklet af US National Security Agency: Den amerikanske standardmyndighed besluttede, at det var "forsigtigt" ud fra et sikkerhedssynspunkt at udvikle en ny standard for at "betydeligt forbedre robustheden af NIST's overordnede hash-algoritme værktøjskasse." SHA-1 er meget brugt og mere sikker end MD5, men kryptoanalytikere har identificeret angreb mod det; SHA-2-familien forbedrer SHA-1, men er sårbar over for sammenstød fra 2011; og SHA-2-familien forbedrer i forhold til SHA-1, men er sårbar over for sammenstød. Som følge heraf skulle der i 2012 afholdes en hashfunktionsdesignkonkurrence for at vælge en ny amerikansk national standard, kendt som SHA-3. Konkurrencen kom til en konklusion den 2. oktober 2012, da National Institute of Standards and Technology (NIST) annoncerede Keccak som den nye SHA-3 hash-algoritme. Kryptografiske hash-funktioner, i modsætning til inverterbare blok- og stream-cifre, giver et hash-output, der ikke kan bruges til at gendanne de originale inputdata. Kryptografiske hash-funktioner bruges til at kontrollere ægtheden af data erhvervet fra en utroværdig kilde eller til at tilføje en ekstra grad af beskyttelse.
Kryptografiske primitiver og kryptosystemer
Meget af kryptografiens teoretiske arbejde fokuserer på kryptografiske primitiver – algoritmer med grundlæggende kryptografiske egenskaber – og hvordan de forholder sig til andre kryptografiske udfordringer. Disse grundlæggende primitiver bruges derefter til at skabe mere komplekse kryptografiske værktøjer. Disse primitiver giver grundlæggende kvaliteter, der bruges til at skabe mere komplekse værktøjer kendt som kryptosystemer eller kryptografiske protokoller, der sikrer en eller flere sikkerhedsegenskaber på højt niveau. Grænsen mellem kryptografiske primitiver og kryptosystemer er på den anden side vilkårlig; RSA-algoritmen, for eksempel, betragtes nogle gange som et kryptosystem og nogle gange et primitivt. Pseudorandomfunktioner, envejsfunktioner og andre kryptografiske primitiver er almindelige eksempler.
Et kryptografisk system, eller kryptosystem, skabes ved at kombinere en eller flere kryptografiske primitiver for at skabe en mere kompliceret algoritme. Kryptosystemer (f.eks. El-Gamal-kryptering) er beregnet til at give specifik funktionalitet (f.eks. offentlig nøglekryptering) og samtidig sikre visse sikkerhedskvaliteter (f.eks. tilfældig orakelmodel valgt-klartekst-angreb CPA-sikkerhed). For at understøtte systemets sikkerhedskvaliteter udnytter kryptosystemer egenskaberne fra de underliggende kryptografiske primitiver. Et sofistikeret kryptosystem kan genereres ud fra en kombination af adskillige mere rudimentære kryptosystemer, da sondringen mellem primitiver og kryptosystemer er noget vilkårlig. Under mange omstændigheder omfatter kryptosystemets struktur frem og tilbage kommunikation mellem to eller flere parter i rummet (f.eks. mellem afsender og modtager af en sikker meddelelse) eller over tid (f.eks. mellem afsender og modtager af en sikker meddelelse) (f.eks. kryptografisk beskyttede sikkerhedskopieringsdata).
For at gøre dig nærmere bekendt med certificeringspensum kan du udvide og analysere nedenstående tabel.
EITC/IS/ACC Advanced Classical Cryptography Certification Curriculum refererer til didaktisk materiale med åben adgang i en videoform. Læreprocessen er opdelt i en trin-for-trin struktur (programmer -> lektioner -> emner), der dækker relevante læseplansdele. Der tilbydes også ubegrænset rådgivning med domæneeksperter.
Tjek for detaljer om certificeringsproceduren Sådan fungerer det.
Grundlæggende om EITC/IS/CCF klassisk kryptografi
EITC/IS/CCF Classical Cryptography Fundamentals er det europæiske IT-certificeringsprogram om teoretiske og praktiske aspekter af klassisk kryptografi, herunder både private-key og public-key kryptografi, med en introduktion til praktiske chiffer, der er meget udbredt på internettet, som f.eks. RSA.
Læreplanen for EITC/IS/CCF Classical Cryptography Fundamentals dækker introduktion til privat-nøgle-kryptering, modulær aritmetik og historiske ciphers, stream ciphers, tilfældige tal, One-Time Pad (OTP) ubetinget sikre cipher (under forudsætning af at give en løsning til nøgledistributionsproblemet, som f.eks. gives af Quantum Key Distribution, QKD), lineære feedback-skiftregistre, Data Encryption Standard (DES-kryptering, inklusive kryptering, nøgleskema og dekryptering), Advanced Encryption Standard (AES, introduktion af Galois-felter) baseret kryptografi), anvendelser af blokcifre (inklusive funktionsmåder), overvejelse af multiple kryptering og brute-force-angreb, introduktion til public-key kryptografi, der dækker talteori, euklidisk algoritme, Eulers Phi-funktion og Eulers sætning, samt introduktion til RSA-kryptosystemet og effektiv eksponentiering inden for følgende struktur, der omfatter omfattende videodidaktik indhold som reference for denne EITC-certificering.
Kryptografi refererer til måder til sikker kommunikation i nærvær af en modstander. Kryptografi er i bredere forstand processen med at skabe og analysere protokoller, der forhindrer tredjeparter eller offentligheden i at få adgang til private (krypterede) beskeder. Moderne klassisk kryptografi er baseret på flere hovedtræk ved informationssikkerhed, såsom datafortrolighed, dataintegritet, autentificering og ikke-afvisning. I modsætning til kvantekryptografi, som er baseret på radikalt forskellige kvantefysiske regler, der karakteriserer naturen, refererer klassisk kryptografi til kryptografi baseret på klassiske fysiklove. Områderne matematik, datalogi, elektroteknik, kommunikationsvidenskab og fysik mødes alle i klassisk kryptografi. Elektronisk handel, chip-baserede betalingskort, digitale valutaer, computeradgangskoder og militær kommunikation er alle eksempler på kryptografiapplikationer.
Før den nuværende æra var kryptografi næsten synonymt med kryptering, hvilket gjorde information fra læsbar til uforståelig nonsens. For at forhindre angribere i at få adgang til en krypteret besked, deler afsenderen kun afkodningsprocessen med de tilsigtede modtagere. Navnene Alice ("A") for afsenderen, Bob ("B") for den påtænkte modtager og Eve ("aflyttet") for modstanderen bruges ofte i kryptografilitteratur.
Kryptografimetoder er blevet mere og mere komplekse, og dens anvendelser er blevet mere diversificerede, siden udviklingen af rotor-chiffermaskiner i Første Verdenskrig og introduktionen af computere i Anden Verdenskrig.
Moderne kryptografi er stærkt afhængig af matematisk teori og datalogi praksis; kryptografiske metoder er bygget op omkring beregningshårdhedsantagelser, hvilket gør dem vanskelige for enhver modstander at bryde i praksis. Selvom det teoretisk er muligt at bryde ind i et veldesignet system, er det umuligt at gøre det i praksis. Sådanne ordninger omtales som "beregningssikre", hvis de er tilstrækkeligt konstrueret; ikke desto mindre kræver teoretiske gennembrud (f.eks. forbedringer i heltalsfaktoriseringsmetoder) og hurtigere computerteknologi konstant revurdering og om nødvendigt tilpasning af disse designs. Der er informationsteoretisk sikre systemer, såsom engangspuden, der kan bevises at være ubrydelige selv med uendelig computerkraft, men de er betydeligt sværere at anvende i praksis end de bedste teoretisk nedbrydelige, men beregningssikre ordninger.
I informationsalderen har fremskridtet inden for kryptografisk teknologi frembragt en række juridiske udfordringer. Mange nationer har klassificeret kryptografi som et våben, hvilket begrænser eller forbyder dets brug og eksport på grund af dets potentiale for spionage og oprør. Efterforskere kan tvinge til afgivelse af krypteringsnøgler til dokumenter, der er relevante for en undersøgelse, nogle steder, hvor kryptografi er lovligt. I tilfælde af digitale medier spiller kryptografi også en nøglerolle i forvaltning af digitale rettigheder og konflikter om krænkelse af ophavsret.
Udtrykket "kryptograf" (i modsætning til "kryptogram") blev første gang brugt i det nittende århundrede, i Edgar Allan Poes novelle "The Gold-Bug."
Indtil for nylig refererede kryptografi næsten udelukkende til "kryptering", som er handlingen med at omdanne almindelige data (kendt som almindelig tekst) til et ulæseligt format (kaldet chiffertekst). Dekryptering er det modsatte af kryptering, dvs. at gå fra uforståelig chiffertekst til almindelig tekst. En cipher (eller cypher) er et sæt af teknikker, der udfører kryptering og dekryptering i omvendt rækkefølge. Algoritmen og i hvert tilfælde en "nøgle" er ansvarlige for chifferens detaljerede udførelse. Nøglen er en hemmelighed (helst kendt kun af kommunikanterne), som bruges til at dekryptere chifferteksten. Det er almindeligvis en streng af tegn (ideelt kort, så det kan huskes af brugeren). Et "kryptosystem" er den ordnede samling af elementer af endelige potentielle klartekster, cyphertekster, nøgler og de krypterings- og dekrypteringsprocedurer, der svarer til hver nøgle i formelle matematiske termer. Nøgler er afgørende både formelt og praktisk, fordi cifre med faste nøgler nemt kan brydes ved kun at bruge cipherens information, hvilket gør dem ubrugelige (eller endda kontraproduktive) til de fleste formål.
Historisk set blev chiffer ofte brugt uden yderligere procedurer såsom autentificering eller integritetstjek for kryptering eller dekryptering. Kryptosystemer er opdelt i to kategorier: symmetriske og asymmetriske. Den samme nøgle (den hemmelige nøgle) bruges til at kryptere og dekryptere en besked i symmetriske systemer, som var de eneste kendte indtil 1970'erne. Fordi symmetriske systemer bruger kortere nøglelængder, er datamanipulation i symmetriske systemer hurtigere end i asymmetriske systemer. Asymmetriske systemer krypterer en kommunikation med en "offentlig nøgle" og dekrypterer den ved hjælp af en lignende "privat nøgle". Brugen af asymmetriske systemer forbedrer kommunikationssikkerheden på grund af vanskeligheden ved at bestemme forholdet mellem de to nøgler. RSA (Rivest–Shamir–Adleman) og ECC er to eksempler på asymmetriske systemer (Elliptic Curve Cryptography). Den meget brugte AES (Advanced Encryption Standard), som afløste den tidligere DES, er et eksempel på en symmetrisk algoritme af høj kvalitet (Data Encryption Standard). De forskellige teknikker til sammenfiltring af børns sprog, såsom griselatin eller anden overhøjde, og faktisk alle kryptografiske skemaer, uanset hvor alvorligt de er, fra enhver kilde forud for introduktionen af engangsblokken i begyndelsen af det tyvende århundrede, er eksempler på lav kvalitet symmetriske algoritmer.
Udtrykket "kode" bruges ofte i daglig tale til at henvise til enhver teknik til kryptering eller skjulning af beskeder. I kryptografi refererer kode imidlertid til, at et kodeord erstattes af en enhed af almindelig tekst (dvs. et meningsfuldt ord eller en sætning) (f.eks. erstatter "wallaby" "angreb ved daggry"). I modsætning hertil skabes en cyphertext ved at ændre eller erstatte et element under et sådant niveau (f.eks. et bogstav, en stavelse eller et par bogstaver) for at danne en cyphertext.
Krypteringsanalyse er undersøgelsen af måder at dekryptere krypterede data på uden at have adgang til den nødvendige nøgle for at gøre det; med andre ord er det studiet af, hvordan man "bryder" krypteringssystemer eller deres implementeringer.
På engelsk bruger nogle mennesker i flæng udtrykkene "kryptografi" og "kryptologi", mens andre (herunder amerikansk militær praksis generelt) bruger "kryptografi" til at henvise til brug og praksis af kryptografiske teknikker og "kryptologi" for at henvise til det kombinerede studie af kryptografi og kryptoanalyse. Engelsk er mere tilpasningsdygtig end en række andre sprog, hvor "kryptologi" (som praktiseret af kryptologer) altid bruges i anden betydning. Steganografi er nogle gange inkluderet i kryptologi, ifølge RFC 2828.
Kryptolingvistik er studiet af sprogegenskaber, der har en vis relevans i kryptografi eller kryptologi (for eksempel frekvensstatistik, bogstavkombinationer, universelle mønstre og så videre).
Kryptografi og kryptoanalyse har en lang historie.
Historien om kryptografi er hovedartiklen.
Før den moderne æra var kryptografi primært beskæftiget med meddelelsesfortrolighed (dvs. kryptering) - konvertering af meddelelser fra en forståelig til en uforståelig form og igen, hvilket gør dem ulæselige af opfangere eller aflyttere uden hemmelig viden (nemlig nøglen til dekryptering). af denne besked). Kryptering blev designet til at holde samtaler mellem spioner, militærledere og diplomater private. I de seneste årtier er disciplinen vokset til blandt andet at inkorporere teknikker som kontrol af meddelelsesintegritet, autentificering af afsender/modtagers identitet, digitale signaturer, interaktive beviser og sikker beregning.
De to mest almindelige klassiske chiffertyper er transponeringscifre, som systematisk erstatter bogstaver eller grupper af bogstaver med andre bogstaver eller grupper af bogstaver (f.eks. bliver 'hej verden' til 'ehlol owrdl' i et trivielt simpelt omarrangeringsskema), og substitutionscifre, som systematisk erstatter bogstaver eller grupper af bogstaver med andre bogstaver eller grupper af bogstaver (f.eks. bliver 'flyve med det samme' til 'gmz bu Simple versioner af begge har aldrig givet meget privatliv fra snedige modstandere. Cæsar-cifferet var et tidligt substitutionsciffer, hvori hvert bogstav i klarteksten blev erstattet af et bogstav et vist antal positioner nede i alfabetet. Ifølge Suetonius brugte Julius Cæsar det med et tremandsskifte til at kommunikere med sine generaler. Et tidligt hebraisk ciffer, Atbash, er et eksempel. Den ældste kendte brug af kryptografi er en udskåret chiffertekst på sten i Egypten (ca. 1900 f.v.t.), men det er muligt, at dette blev gjort til glæde for læsekyndige tilskuere snarere end for at skjule information.
Krypter er rapporteret at have været kendt af de klassiske grækere (f.eks. den scytale transposition-chiffer, der hævdes at være blevet brugt af det spartanske militær). Steganografi (praksis med at skjule selv tilstedeværelsen af en kommunikation for at holde den privat) blev også opfundet i oldtiden. En sætning tatoveret på en slaves barberede hoved og gemt under det gengroede hår, ifølge Herodot. Brugen af usynlig blæk, mikroprikker og digitale vandmærker til at skjule information er mere aktuelle forekomster af steganografi.
Kautiliyam og Mulavediya er to typer cifre nævnt i Indiens 2000 år gamle Kamasutra af Vtsyyana. Chifferbogstaverstatningerne i Kautiliyam er baseret på fonetiske forhold, såsom at vokaler bliver konsonanter. Chifferalfabetet i Mulavediya består af matchende bogstaver og anvender gensidige bogstaver.
Ifølge den muslimske lærde Ibn al-Nadim havde Sassanid Persien to hemmelige skrifter: h-dabrya (bogstaveligt talt "Kongens skrift"), som blev brugt til officiel korrespondance, og rz-saharya, som blev brugt til at udveksle hemmelige beskeder med andre lande.
I sin bog The Codebreakers skriver David Kahn, at nutidig kryptologi begyndte med araberne, som var de første til omhyggeligt at dokumentere kryptoanalytiske procedurer. The Book of Cryptographic Messages er skrevet af Al-Khalil (717-786), og den indeholder den tidligste brug af permutationer og kombinationer til at liste alle tænkelige arabiske ord med og uden vokaler.
Chiffertekster genereret af en klassisk chiffer (såvel som nogle moderne chiffer) afslører statistisk information om almindelig tekst, som kan bruges til at bryde chifferen. Næsten alle sådanne cifre kunne brydes af en intelligent angriber efter opdagelsen af frekvensanalyse, muligvis af den arabiske matematiker og polymat Al-Kindi (også kendt som Alkindus) i det 9. århundrede. Klassiske cifre er stadig populære i dag, omend i høj grad som puslespil (se kryptogram). Risalah fi Istikhraj al-Mu'amma (Manuskript til dechifrering af kryptografiske meddelelser) blev skrevet af Al-Kindi og dokumenterede den første kendte brug af frekvensanalyse-krypteringsteknikker.
Nogle udvidede historiekrypteringsmetoder, såsom homofonisk chiffer, der har tendens til at udjævne frekvensfordelingen, drager muligvis ikke fordel af sprogbogstavfrekvenser. Sprogbogstavsgruppe (eller n-gram) frekvenser kan give et angreb for disse cifre.
Indtil opdagelsen af den polyalfabetiske chiffer, især af Leon Battista Alberti omkring 1467, var praktisk talt alle chiffer tilgængelige for kryptoanalyse ved hjælp af frekvensanalysemetoden, selvom der er nogle beviser på, at det allerede var kendt af Al-Kindi. Alberti kom op med ideen om at bruge separate cifre (eller substitutionsalfabeter) til forskellige dele af en kommunikation (måske for hvert efterfølgende bogstav i almindelig tekst ved grænsen). Han skabte også, hvad der menes at være den første automatiske krypteringsenhed, et hjul, der udførte en del af hans design. Kryptering i Vigenère-chifferet, en polyalfabetisk cipher, styres af et nøgleord, der styrer bogstaverstatning baseret på hvilket bogstav i nøgleordet, der bruges. Charles Babbage demonstrerede, at Vigenère-chifferet var sårbart over for Kasiski-analyse i midten af det nittende århundrede, men Friedrich Kasiski offentliggjorde sine resultater ti år senere.
På trods af det faktum, at frekvensanalyse er en kraftfuld og bred teknik mod mange cifre, er kryptering forblevet effektiv i praksis, fordi mange kommende kryptoanalytikere er uvidende om teknikken. At bryde en besked uden at bruge frekvensanalyse krævede viden om den anvendte chiffer og muligvis den involverede nøgle, hvilket gjorde spionage, bestikkelse, indbrud, frafald og andre kryptoanalytisk uinformerede taktikker mere tiltrækkende. Hemmeligheden bag en chifferalgoritme blev i det 19. århundrede i sidste ende anerkendt som hverken en rimelig eller gennemførlig forsikring om meddelelsessikkerhed; faktisk bør enhver passende kryptografisk ordning (inklusive ciphers) forblive sikker, selvom modstanderen fuldt ud forstår selve cipher-algoritmen. Nøglens sikkerhed bør være tilstrækkelig til, at en god chiffer kan bevare fortroligheden i tilfælde af et overfald. Auguste Kerckhoffs udtalte første gang dette grundlæggende princip i 1883, og det er kendt som Kerckhoffs princip; alternativt, og mere ligeud, gentog Claude Shannon, opfinderen af informationsteorien og de grundlæggende principper for teoretisk kryptografi, det som Shannons Maxim - 'fjenden kender systemet'.
For at hjælpe med ciphers er mange fysiske gadgets og assistance blevet brugt. Det antikke Grækenlands scytale, en stang, der angiveligt blev brugt af spartanerne som et værktøj til transponering af chiffer, kan have været en af de første. Andre hjælpemidler blev udtænkt i middelalderen, såsom chiffergitteret, som også blev brugt til steganografi. Med udviklingen af polyalfabetiske cifre blev mere sofistikerede hjælpemidler såsom Albertis ciffer-skive, Johannes Trithemius' tabula recta-skema og Thomas Jeffersons hjulciffer tilgængelige (ikke offentligt kendt og genopfundet uafhængigt af Bazeries omkring 1900). Mange mekaniske krypterings-/dekrypteringssystemer blev udtænkt og patenteret i begyndelsen af det tyvende århundrede, inklusive rotormaskiner, som var berømt ansat af den tyske regering og militær fra slutningen af 1920'erne til Anden Verdenskrig. Efter WWI resulterede chifferne implementeret af forekomster af højere kvalitet af disse maskindesigns i en betydelig stigning i kryptoanalytiske vanskeligheder.
Kryptografi beskæftigede sig primært med sproglige og leksikografiske mønstre før det tidlige tyvende århundrede. Siden da har fokus udviklet sig, og kryptografi omfatter nu aspekter af informationsteori, beregningskompleksitet, statistik, kombinatorik, abstrakt algebra, talteori og finit matematik generelt. Kryptografi er en type teknik, men den er unik, idet den beskæftiger sig med aktiv, intelligent og fjendtlig modstand, hvorimod andre typer teknik (såsom civil- eller kemiteknik) blot skal beskæftige sig med naturlige kræfter, der er neutrale. Sammenhængen mellem kryptografiske vanskeligheder og kvantefysik bliver også undersøgt.
Udviklingen af digitale computere og elektronik hjalp kryptering ved at give mulighed for at skabe betydeligt mere sofistikerede cifre. Desuden, i modsætning til traditionelle ciphers, som udelukkende krypterede skriftsprogstekster, tillod computere kryptering af enhver type data, der kunne repræsenteres i ethvert binært format; dette var nyt og afgørende. I både chifferdesign og kryptoanalyse har computere så fortrængt sprogkryptografi. I modsætning til klassiske og mekaniske metoder, som primært manipulerer traditionelle tegn (dvs. bogstaver og tal) direkte, opererer mange computercifre på binære bitsekvenser (nogle gange i grupper eller blokke). Computere har på den anden side hjulpet kryptoanalysen, som delvist har kompenseret for øget krypteringskompleksitet. På trods af dette er gode moderne cifre forblevet foran kryptoanalysen; det er ofte tilfældet, at brugen af en god chiffer er meget effektiv (dvs. hurtig og kræver få ressourcer, såsom hukommelse eller CPU-kapacitet), hvorimod at bryde den kræver en indsats, der er mange størrelsesordener større og langt større end det, der kræves for nogen klassisk chiffer, hvilket effektivt gør krypteringsanalyse umulig.
Moderne kryptografi får sin debut.
De nye mekaniske enheders kryptoanalyse viste sig at være udfordrende og tidskrævende. Under Anden Verdenskrig fremmede kryptoanalytiske aktiviteter i Bletchley Park i Det Forenede Kongerige opfindelsen af mere effektive metoder til at udføre gentagne opgaver. Colossus, verdens første fuldstændig elektroniske, digitale, programmerbare computer, blev udviklet til at hjælpe med afkodningen af cifre skabt af den tyske hærs Lorenz SZ40/42-maskine.
Kryptografi er et relativt nyt felt inden for åben akademisk forskning, der først er begyndt i midten af 1970'erne. IBM-medarbejdere udtænkte den algoritme, der blev til Federal (dvs. USA) Data Encryption Standard; Whitfield Diffie og Martin Hellman offentliggjorde deres nøgleaftalealgoritme; og Martin Gardners Scientific American-spalte offentliggjorde RSA-algoritmen. Kryptografi er siden vokset i popularitet som en teknik til kommunikation, computernetværk og computersikkerhed generelt.
Der er dybe bånd til abstrakt matematik, eftersom adskillige moderne kryptografiske tilgange kun kan holde deres nøgler hemmelige, hvis visse matematiske problemer er uløselige, såsom heltalsfaktorisering eller diskrete logaritmeproblemer. Der er blot en håndfuld kryptosystemer, der har vist sig at være 100 % sikre. Claude Shannon beviste, at engangsblokken er en af dem. Der er nogle få nøglealgoritmer, der har vist sig at være sikre under visse forhold. Manglende evne til at faktorisere ekstremt store heltal, for eksempel, er grundlaget for at tro, at RSA og andre systemer er sikre, men bevis for ubrydelighed er uopnåeligt, fordi det underliggende matematiske problem forbliver uløst. I praksis er disse meget brugt, og de fleste kompetente iagttagere mener, at de er ubrydelige i praksis. Der findes systemer, der ligner RSA, såsom et udviklet af Michael O. Rabin, der beviseligt er sikre, hvis factoring n = pq er umuligt; dog er de praktisk talt ubrugelige. Problemet med diskret logaritme er grundlaget for at tro, at nogle andre kryptosystemer er sikre, og der er lignende, mindre praktiske systemer, der beviseligt er sikre med hensyn til det diskrete logaritmeproblems løselighed eller uløselighed.
Kryptografiske algoritmer og systemdesignere skal overveje mulige fremtidige fremskridt, når de arbejder på deres ideer, ud over at være bevidste om kryptografisk historie. For eksempel, efterhånden som computerens processorkraft er blevet forbedret, er bredden af brute-force-angreb vokset, og derfor er de nødvendige nøglelængder også vokset. Nogle kryptografiske systemdesignere, der udforsker post-kvantekryptografi, overvejer allerede de potentielle konsekvenser af kvanteberegning; den annoncerede nært forestående af beskedne implementeringer af disse maskiner kan gøre behovet for forebyggende forsigtighed mere end blot spekulativt.
Klassisk kryptografi i nutiden
Symmetrisk (eller privat nøgle) kryptografi er en form for kryptering, hvor afsender og modtager bruger den samme nøgle (eller, mindre almindeligt, hvor deres nøgler er forskellige, men relateret på en let beregnelig måde og opbevares hemmeligt, privat ). Indtil juni 1976 var dette den eneste form for kryptering, der var offentligt kendt.
Blok-cifre og stream-cifre bruges begge til at implementere symmetriske nøgle-cifre. En blokchiffer krypterer input i blokke af almindelig tekst i stedet for individuelle tegn, ligesom en stream-chiffer gør.
Den amerikanske regering har udpeget Data Encryption Standard (DES) og Advanced Encryption Standard (AES) som kryptografistandarder (omend DES's certificering til sidst blev trukket tilbage, når AES blev etableret). DES (især dens stadig godkendte og væsentligt mere sikre triple-DES-variation) forbliver populær på trods af dens afskrivning som en officiel standard; det bruges i en lang række applikationer, fra ATM-kryptering til e-mail-privatliv og sikker fjernadgang. Der er blevet opfundet og udgivet en række forskellige blokcifre, med varierende grader af succes. Mange, inklusive nogle designet af kvalificerede praktikere, såsom FEAL, er blevet omfattende ødelagt.
Strømchiffer genererer, i modsætning til blokcifre, en uendelig lang strøm af nøglemateriale, der er koblet med almindelig tekst bit-for-bit eller tegn-for-tegn, svarende til engangsblokken. Outputstrømmen af en strømchiffer genereres fra en skjult intern tilstand, der ændres, efterhånden som cifferen fungerer. Det hemmelige nøglemateriale bruges først til at opsætte den interne tilstand. Strømchifferet RC4 er flittigt brugt. Ved at skabe blokke af en nøglestrøm (i stedet for en pseudotilfældig talgenerator) og bruge en XOR-operation til hver bit af klarteksten med hver bit af nøglestrømmen, kan blokchiffere anvendes som strømcifre.
Beskedgodkendelseskoder (MAC'er) ligner kryptografiske hash-funktioner, med den undtagelse, at en hemmelig nøgle kan bruges til at validere hashværdien ved modtagelse; denne ekstra forvikling forhindrer et angreb mod nøgne fordøjelsesalgoritmer, og anses derfor for at være umagen værd. En tredje slags kryptografisk teknik er kryptografiske hashfunktioner. De tager meddelelser af enhver længde som input og udsender en lille hash med fast længde, der for eksempel kan bruges i digitale signaturer. En angriber kan ikke finde to beskeder, der producerer den samme hash ved hjælp af gode hash-algoritmer. MD4 er en meget brugt, men nu defekt hash-funktion; MD5, en forbedret form for MD4, er ligeledes meget udbredt, men brudt i praksis. Secure Hash Algorithm-serien af MD5-lignende hashalgoritmer blev udviklet af det amerikanske nationale sikkerhedsagentur: Den amerikanske standardmyndighed besluttede, at det var "forsigtigt" ud fra et sikkerhedssynspunkt at udvikle en ny standard for "betydeligt at forbedre robustheden af NISTs overordnede hashalgoritme værktøjskasse." SHA-1 er meget brugt og mere sikker end MD5, men kryptoanalytikere har identificeret angreb mod det; SHA-2-familien forbedrer SHA-1, men er sårbar over for sammenstød fra 2011; og SHA-2-familien forbedrer i forhold til SHA-1, men er sårbar over for sammenstød. Som følge heraf skulle der i 2012 afholdes en hashfunktionsdesignkonkurrence for at vælge en ny amerikansk national standard, kendt som SHA-3. Konkurrencen kom til en konklusion den 2. oktober 2012, da National Institute of Standards and Technology (NIST) annoncerede Keccak som den nye SHA-3 hash-algoritme. Kryptografiske hash-funktioner, i modsætning til inverterbare blok- og stream-cifre, giver et hash-output, der ikke kan bruges til at gendanne de originale inputdata. Kryptografiske hash-funktioner bruges til at kontrollere ægtheden af data erhvervet fra en utroværdig kilde eller til at tilføje en ekstra grad af beskyttelse.
Selvom en meddelelse eller et sæt meddelelser kan have en anden nøgle end andre, anvender symmetriske nøglekryptosystemer den samme nøgle til kryptering og dekryptering. Den nøglestyring, der kræves for at bruge symmetriske cifre sikkert, er en stor ulempe. Hvert enkelt par af kommunikerende parter bør ideelt set dele en anden nøgle, samt muligvis en anden chiffertekst for hver sendt chiffertekst. Antallet af nødvendige nøgler vokser i direkte forhold til antallet af netværksdeltagere, hvilket nødvendiggør komplicerede nøglehåndteringsteknikker for at holde dem alle konsistente og hemmelige.
Whitfield Diffie og Martin Hellman opfandt begrebet offentlig nøgle (også kendt som asymmetrisk nøgle) kryptografi i et banebrydende værk fra 1976, hvor to distinkte, men matematisk relaterede nøgler - en offentlig nøgle og en privat nøgle - er brugt. Selvom de er uløseligt forbundet, er et offentligt nøglesystem bygget på en sådan måde, at det er beregningsmæssigt umuligt at beregne den ene nøgle ("den private nøgle") fra den anden ("den offentlige nøgle"). Snarere produceres begge nøgler i hemmelighed, som et forbundet par. Offentlig nøglekryptering er ifølge historikeren David Kahn "den mest revolutionære nye idé på området, siden polyalfabetisk substitution opstod i renæssancen."
Den offentlige nøgle i et offentlig nøglekryptosystem kan frit transmitteres, men den koblede private nøgle skal holdes skjult. Den offentlige nøgle bruges til kryptering, hvorimod den private eller hemmelige nøgle bruges til dekryptering i et krypteringsskema med offentlig nøgle. Mens Diffie og Hellman ikke var i stand til at skabe et sådant system, demonstrerede de, at offentlig nøglekryptering var tænkelig ved at levere Diffie-Hellman nøgleudvekslingsprotokollen, en løsning, der gør det muligt for to personer i det skjulte at blive enige om en delt krypteringsnøgle. Det mest udbredte format for offentlige nøglecertifikater er defineret af X.509-standarden.
Udgivelsen af Diffie og Hellman udløste en udbredt akademisk interesse for at udvikle et praktisk krypteringssystem med offentlig nøgle. Ronald Rivest, Adi Shamir og Len Adleman vandt til sidst konkurrencen i 1978, og deres svar blev kendt som RSA-algoritmen.
Ud over at være de tidligste offentligt kendte forekomster af højkvalitets public-key algoritmer, har Diffie-Hellman og RSA algoritmerne været blandt de mest brugte. Cramer-Shoup-kryptosystemet, ElGamal-kryptering og adskillige elliptiske kurvetilgange er eksempler på asymmetriske nøglealgoritmer.
GCHQ-kryptografer forudså adskillige videnskabelige fremskridt, ifølge et dokument udstedt i 1997 af Government Communications Headquarters (GCHQ), en britisk efterretningsorganisation. Ifølge legenden blev asymmetrisk nøglekryptografi opfundet af James H. Ellis omkring 1970. Clifford Cocks opfandt en løsning i 1973, der var ekstremt lig RSA med hensyn til design. Malcolm J. Williamson er krediteret for at opfinde Diffie-Hellman nøgleudveksling i 1974.
Digitale signatursystemer implementeres også ved hjælp af offentlig nøglekryptering. En digital signatur ligner en traditionel signatur, idet det er nemt for brugeren at skabe, men alligevel svært for andre at forfalske. Digitale signaturer kan også være permanent knyttet til indholdet af den kommunikation, der underskrives; det betyder, at de ikke kan 'flyttes' fra et dokument til et andet uden at blive opdaget. Der er to algoritmer i digitale signatursystemer: en til signering, som bruger en hemmelig nøgle til at behandle meddelelsen (eller en hash af meddelelsen eller begge), og en til verifikation, som bruger den matchende offentlige nøgle med meddelelsen til at validere signaturens ægthed. To af de mest brugte digitale signaturmetoder er RSA og DSA. Offentlige nøgleinfrastrukturer og mange netværkssikkerhedssystemer (f.eks. SSL/TLS, mange VPN'er) er afhængige af digitale signaturer for at fungere.
Den beregningsmæssige kompleksitet af "hårde" problemer, såsom dem, der opstår fra talteori, bruges ofte til at udvikle offentlige nøglemetoder. Heltalsfaktoriseringsproblemet er relateret til hårdheden af RSA, mens det diskrete logaritmeproblem er relateret til Diffie-Hellman og DSA. Sikkerheden ved elliptisk kurvekryptografi er baseret på talteoretiske problemer med elliptisk kurve. De fleste offentlige nøglealgoritmer inkluderer operationer som modulær multiplikation og eksponentiering, som er væsentligt dyrere ved beregningen end de teknikker, der bruges i de fleste blokcifre, især med normale nøglestørrelser, på grund af vanskeligheden ved de underliggende problemer. Som følge heraf er offentlige nøglekryptosystemer ofte hybridkryptosystemer, hvor meddelelsen er krypteret med en hurtig symmetrisk nøglealgoritme af høj kvalitet, mens den relevante symmetriske nøgle sendes med beskeden, men krypteres med en offentlig nøglealgoritme. Hybride signaturskemaer, hvor en kryptografisk hash-funktion beregnes, og kun den resulterende hash er digitalt signeret, er også almindeligt brugt.
Hash-funktioner i kryptografi
Kryptografiske hash-funktioner er kryptografiske algoritmer, der producerer og bruger specifikke nøgler til at kryptere data til enten symmetrisk eller asymmetrisk kryptering, og de kan opfattes som nøgler. De tager meddelelser af enhver længde som input og udsender en lille hash med fast længde, der for eksempel kan bruges i digitale signaturer. En angriber kan ikke finde to beskeder, der producerer den samme hash ved hjælp af gode hash-algoritmer. MD4 er en meget brugt, men nu defekt hash-funktion; MD5, en forbedret form for MD4, er ligeledes meget udbredt, men brudt i praksis. Secure Hash Algorithm-serien af MD5-lignende hash-algoritmer blev udviklet af US National Security Agency: Den amerikanske standardmyndighed besluttede, at det var "forsigtigt" ud fra et sikkerhedssynspunkt at udvikle en ny standard for at "betydeligt forbedre robustheden af NIST's overordnede hash-algoritme værktøjskasse." SHA-1 er meget brugt og mere sikker end MD5, men kryptoanalytikere har identificeret angreb mod det; SHA-2-familien forbedrer SHA-1, men er sårbar over for sammenstød fra 2011; og SHA-2-familien forbedrer i forhold til SHA-1, men er sårbar over for sammenstød. Som følge heraf skulle der i 2012 afholdes en hashfunktionsdesignkonkurrence for at vælge en ny amerikansk national standard, kendt som SHA-3. Konkurrencen kom til en konklusion den 2. oktober 2012, da National Institute of Standards and Technology (NIST) annoncerede Keccak som den nye SHA-3 hash-algoritme. Kryptografiske hash-funktioner, i modsætning til inverterbare blok- og stream-cifre, giver et hash-output, der ikke kan bruges til at gendanne de originale inputdata. Kryptografiske hash-funktioner bruges til at kontrollere ægtheden af data erhvervet fra en utroværdig kilde eller til at tilføje en ekstra grad af beskyttelse.
Kryptografiske primitiver og kryptosystemer
Meget af kryptografiens teoretiske arbejde fokuserer på kryptografiske primitiver – algoritmer med grundlæggende kryptografiske egenskaber – og hvordan de forholder sig til andre kryptografiske udfordringer. Disse grundlæggende primitiver bruges derefter til at skabe mere komplekse kryptografiske værktøjer. Disse primitiver giver grundlæggende kvaliteter, der bruges til at skabe mere komplekse værktøjer kendt som kryptosystemer eller kryptografiske protokoller, der sikrer en eller flere sikkerhedsegenskaber på højt niveau. Grænsen mellem kryptografiske primitiver og kryptosystemer er på den anden side vilkårlig; RSA-algoritmen, for eksempel, betragtes nogle gange som et kryptosystem og nogle gange et primitivt. Pseudorandomfunktioner, envejsfunktioner og andre kryptografiske primitiver er almindelige eksempler.
Et kryptografisk system, eller kryptosystem, skabes ved at kombinere en eller flere kryptografiske primitiver for at skabe en mere kompliceret algoritme. Kryptosystemer (f.eks. El-Gamal-kryptering) er beregnet til at give specifik funktionalitet (f.eks. offentlig nøglekryptering) og samtidig sikre visse sikkerhedskvaliteter (f.eks. tilfældig orakelmodel valgt-klartekst-angreb CPA-sikkerhed). For at understøtte systemets sikkerhedskvaliteter udnytter kryptosystemer egenskaberne fra de underliggende kryptografiske primitiver. Et sofistikeret kryptosystem kan genereres ud fra en kombination af adskillige mere rudimentære kryptosystemer, da sondringen mellem primitiver og kryptosystemer er noget vilkårlig. Under mange omstændigheder omfatter kryptosystemets struktur frem og tilbage kommunikation mellem to eller flere parter i rummet (f.eks. mellem afsender og modtager af en sikker meddelelse) eller over tid (f.eks. mellem afsender og modtager af en sikker meddelelse) (f.eks. kryptografisk beskyttede sikkerhedskopieringsdata).
For at gøre dig nærmere bekendt med certificeringspensum kan du udvide og analysere nedenstående tabel.
EITC/IS/CCF Classical Cryptography Fundamentals Certification Curriculum refererer til didaktisk materiale med åben adgang i en videoform. Læreprocessen er opdelt i en trin-for-trin struktur (programmer -> lektioner -> emner), der dækker relevante læseplansdele. Der tilbydes også ubegrænset rådgivning med domæneeksperter.
Tjek for detaljer om certificeringsproceduren Sådan fungerer det.
- 1
- 2