Entropi (informationsteori)

Fra testwiki
Version fra 2. aug. 2022, 08:54 af imported>Jensga imported>Jensga (skiftet stub)
(forskel) ← Ældre version | Nuværende version (forskel) | Nyere version → (forskel)
Spring til navigation Spring til søgning

Skabelon:Harflertydig4 Skabelon:Kilder

I informationsteori er entropi (også informationsentropi eller Shannon-entropi) en måde at betegne og give værdi til evolution og vækst i viden. Især KI-applikationer gør brug af entropi til at læse informationer. De sammenligner simpelthen systemets dele og vælger det stykke data med mindst (~0) entropi.

Entropien S er givet ved en sum over alle mulige tilstande:

S=iPilog2Pi

hvor Pi er sandsynligheden for tilstanden i.[1]

Entropien opnås være at tage gennemsnittet af informationsmængden for hvert udfald:

Ii=log2Pi

For et system med forskellige udfald i er entropien altså den gennemsnitlige informationsmængde, der opnås ved en måling. Jo højere entropien er, jo større usikkerhed er der omkring udfaldet.[2]

Inden for fysikken kaldes den tilsvarende ligning for Gibbs' entropiformel.[3]

Simpelt eksempel

I det følgende gives eksempler på beregning af entropi.

Møntkast

To bit entropi: For to ærlige møntkast er der 4 mulige udfald, og informationsentropien er to-tals-logaritmen til 4, hvilket giver 2 bit. For N møntkast er entropien N bit.

Når en ærlig mønt bruges til at slå plat eller krone, har den 50 % - dvs. 12 - sandsynlighed for at lande på krone og 50 % sandsynlighed for at lande på plat. Informationsmængden for hver udfald er derfor:

I=log212=log22=1 bit

Den gennemsnitlige informationsmængde - entropien - for ét mønstkast er derfor også 1:

S1=[12log2(12)+12log2(12)]=log212=log22=1 bit

For to mønter fordobles informationsmængden ,og derfor bliver entropien 2. Der er nemlig 4 mulige udfald med to mønter, og hvert udfald har 25 % sandsynlighed, så:

S2=4[14log2(14)]=log24=log222=2log22=2 bit

Da antallet af mulige udfald fordobles med hver mønt, må antallet af mulige udfald for et arbitrært antal N mønter være 2N. Sandsynligheden per udfald i er derfor:

Pi=12N

Og derfor er entropien:

SN=2N[12Nlog2(12N)]=log2(2N)=Nlog22

Entropien for N møntkast er altså simpelthen N.

SN=N bit

Så jo flere mønter, jo højere entropi, da hvert udfald bliver mere og mere usandsynligt, og informationen omvendt bliver større og større.

Bernoulli-proces

Entropi som funktion af sandsynligheden for udfald 1. For en Bernoulli-proces er entropien maksimal, når begge udfald er lige sandsynlige, mens entropien er nul, når kun ét af udfaldene er muligt.[2]

En Bernoulli-proces er en måling, hvor der er to mulige udfald med sandsynlighederne p og 1p

P1=pP2=1p

hvor p er konstant. Dette er en generalisering af den ærlige mønt, hvor p=12. Entropien er:

S(p)=plog2(p)(1p)log2(1p)

For p=12 er entropien 1 som før, men for p=0 - dvs. hvis udfald 1 er umuligt - bliver entropien:

S(0)=0log2(0)1log2(1)=0 bit

Entropien ville også være 0 bit, hvis kun udfald 2 var muligt. Hvis kun ét udfald er muligt, er der ikke længere nogen usikkerhed, mens usikkerheden er størst, hvis begge udfald er lige sandsynlige (se figur).[2]

Kildehenvisninger

Skabelon:Reflist

Skabelon:Matematikstub Skabelon:Autoritetsdata