Binær entropi, også kendt som Shannon-entropi, er et begreb i informationsteori, der måler usikkerheden eller tilfældigheden af en binær tilfældig variabel med to udfald. Den adskiller sig fra klassisk entropi ved, at den specifikt gælder for binære variable, hvorimod klassisk entropi kan anvendes på variabler med et vilkårligt antal udfald.
For at forstå binær entropi skal vi først forstå selve begrebet entropi. Entropi er et mål for den gennemsnitlige mængde information eller usikkerhed indeholdt i en tilfældig variabel. Den kvantificerer, hvor uforudsigelige udfaldene af en tilfældig variabel er. Med andre ord fortæller det os, hvor meget "overraskelse" vi kan forvente, når vi observerer udfaldene af en tilfældig variabel.
I tilfælde af en binær stokastisk variabel med to udfald, lad os betegne disse udfald som 0 og 1. Den binære entropi af denne variabel, betegnet som H(X), beregnes ved hjælp af formlen:
H(X) = -p(0) * log2(p(0)) – p(1) * log2(p(1))
hvor p(0) og p(1) er sandsynligheden for at observere udfaldet henholdsvis 0 og 1. Logaritmen tages til basen 2 for at sikre, at den resulterende entropiværdi måles i bits.
For at beregne den binære entropi skal vi bestemme sandsynligheden for de to udfald. Hvis sandsynligheden er ens, dvs. p(0) = p(1) = 0.5, så maksimeres den binære entropi, hvilket indikerer maksimal usikkerhed. Dette skyldes, at begge udfald er lige sandsynlige, og vi kan ikke forudsige, hvilket der vil ske. I dette tilfælde er den binære entropi H(X) = -0.5 * log2(0.5) – 0.5 * log2(0.5) = 1 bit.
På den anden side, hvis det ene udfald er mere sandsynligt end det andet, reduceres den binære entropi, hvilket indikerer mindre usikkerhed. For eksempel, hvis p(0) = 0.8 og p(1) = 0.2, er den binære entropi H(X) = -0.8 * log2(0.8) – 0.2 * log2(0.2) ≈ 0.72 bit. Dette betyder, at vi i gennemsnit har brug for mindre end en bit information for at repræsentere resultaterne af denne binære tilfældige variabel.
Det er vigtigt at bemærke, at binær entropi altid er ikke-negativ, hvilket betyder, at den er større end eller lig med nul. Det maksimeres, når sandsynligheden for de to udfald er ens og minimeres, når det ene udfald har en sandsynlighed på 1, og det andet har en sandsynlighed på 0.
Binær entropi måler usikkerheden eller tilfældigheden af en binær tilfældig variabel med to udfald. Det beregnes ved hjælp af formlen -p(0) * log2(p(0)) – p(1) * log2(p(1)), hvor p(0) og p(1) er sandsynligheden for de to udfald . Den resulterende entropiværdi måles i bits, hvor højere værdier indikerer større usikkerhed og lavere værdier indikerer mindre usikkerhed.
Andre seneste spørgsmål og svar vedr Klassisk entropi:
- Hvordan bidrager forståelse af entropi til design og evaluering af robuste kryptografiske algoritmer inden for cybersikkerhed?
- Hvad er den maksimale værdi af entropi, og hvornår opnås den?
- Under hvilke forhold forsvinder en tilfældig variabels entropi, og hvad betyder det om variablen?
- Hvad er de matematiske egenskaber ved entropi, og hvorfor er den ikke-negativ?
- Hvordan ændres entropien af en stokastisk variabel, når sandsynligheden er jævnt fordelt mellem udfaldene sammenlignet med, når den er forspændt mod ét udfald?
- Hvad er forholdet mellem den forventede længde af kodeord og entropien af en tilfældig variabel i variabel længde kodning?
- Forklar, hvordan begrebet klassisk entropi bruges i kodningsskemaer med variabel længde til effektiv informationskodning.
- Hvad er egenskaberne ved klassisk entropi, og hvordan hænger det sammen med sandsynligheden for udfald?
- Hvordan måler klassisk entropi usikkerheden eller tilfældigheden i et givet system?