información pontificia universidad católica del perú eduardo massoni

28
Información Pontificia Universidad Católica del Perú Eduardo Massoni

Upload: trini-pompa

Post on 28-Jan-2016

227 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Información Pontificia Universidad Católica del Perú Eduardo Massoni

Información

Pontificia Universidad Católica del Perú

Eduardo Massoni

Page 2: Información Pontificia Universidad Católica del Perú Eduardo Massoni

Entropia Termodinamica

S

Page 3: Información Pontificia Universidad Católica del Perú Eduardo Massoni

Leyes de la Termodinámica

Primera Ley

Segunda Ley

Conservación de la EnergíaEntropía del Universo siempre creceTercera LeyNo se puede Alcanzar el cero Absoluto

Page 4: Información Pontificia Universidad Católica del Perú Eduardo Massoni

Ciclo de Carnot

Isotermico Eficiencia

Carnot

Adiabatico

Page 5: Información Pontificia Universidad Católica del Perú Eduardo Massoni

Carnot: “Nadie Le Gana A Mi Motor”Motor reversible

Motor Refrigerador

C

C 2CM

C

Page 6: Información Pontificia Universidad Católica del Perú Eduardo Massoni

2CM

PostuladoEs imposible un proceso cuyo único

resultado sea la transferencia de energía en forma de calor de un cuerpo de menor

temperatura a otro de mayor temperatura.Enunciado de Clausius

Carnot: “Nadie Le Gana A Mi Motor”Un motor reversible que trabaja a dos temperaturas tiene

la misma eficiencia que un motor de carnot

Page 7: Información Pontificia Universidad Católica del Perú Eduardo Massoni

PostuladoEs imposible todo proceso cíclico cuyo

único resultado sea la absorción de energía en forma de calor procedente de un foco térmico (o reservorio o depósito térmico), y la conversión de toda ésta

energía en forma de calor en energía en forma de trabajo».

Enunciado de Kelvin-Planck.

Page 8: Información Pontificia Universidad Católica del Perú Eduardo Massoni

Hay una cantidad asocianda al sistema que llamaremos S tal que :

Para el ciclo de Carnot

Para cualquier ciclo cerrado el cambio de entropia S es nulo

S es una funcion de estado

Page 9: Información Pontificia Universidad Católica del Perú Eduardo Massoni

Segunda Ley

Universo es un sistema cerrado

S1

S2

S3

T1

T2

Q

T1

T2

Q

Procesos que no aumentan la

entropia del universo no son posibles

PostuladoEs imposible un proceso

cuyo único resultado sea la transferencia de energía en forma de calor de un cuerpo

de menor temperatura a otro de mayor temperatura.

Enunciado de Clausius

321 SSSS

0// 2121 TQTQSSS

0// 2121 TQTQSSS

Page 10: Información Pontificia Universidad Católica del Perú Eduardo Massoni

¿ Que es esta variable S ?

Boltzmann

)ln(WKS

I D

W= # de formas

1) IIIIIIIIIIIIIII W=12) IIIIIIDIIIIIIII W=N

3) IDIDIDIDIDIDID W=2NI D

)1ln(1 KS )ln(2 NKS )2ln(2/

NN KS

ND /#

W

2/1

I D

Page 11: Información Pontificia Universidad Católica del Perú Eduardo Massoni

Segunda Ley

•Procesos en el universo aumentan la entropia

•La entropia mide el desorden medido como el numero de estados posibles

I D

En este sistema aislado, cualquier configuracion o estado tiene la misma probabilidad WP /1

Page 12: Información Pontificia Universidad Católica del Perú Eduardo Massoni

La Información es Fisica

Page 13: Información Pontificia Universidad Católica del Perú Eduardo Massoni

Principio de Landauer (1961)

)2ln(KTQ El calor necesario para borrar un bit de informacion es:0 1 10

T T

)2ln()/ln( KTVVKTWQ if

Page 14: Información Pontificia Universidad Católica del Perú Eduardo Massoni

La informacion se guarda en sistemas fisicos, por lo el manejo de informacion se rige bajo leyes fisicas

Demonio de Maxwell

¿Entropia decrece?

Page 15: Información Pontificia Universidad Católica del Perú Eduardo Massoni

NO

)2ln(KTQ Univers

o

La entropia total del sistema +universo crece!!

Page 16: Información Pontificia Universidad Católica del Perú Eduardo Massoni

Cuantificando la informacion

Page 17: Información Pontificia Universidad Católica del Perú Eduardo Massoni

¿Como cuantificamos la informacion?

Codificador comprime la informacion y codifica la transmision

Teoria de la Informacion ( 1948) Lord Shannon

Canal

Codificador

Decodificador

Fuente

Receptor

A mathematical theory of communication

Medimos la cantidad de informacion por la cantidad de recursos que necesitamos para mandar un mensaje

Page 18: Información Pontificia Universidad Católica del Perú Eduardo Massoni

¿Como cuantificamos la informacion?

Codificador comprime la informacion y codifica la transmision

Teoria de la Informacion ( 1948) Lord Shannon

Canal

Codificador

Decodificador

Fuente

Receptor

A mathematical theory of communication

Medimos la cantidad de informacion por la cantidad de recursos que necesitamos para manadr un mensaje

Page 19: Información Pontificia Universidad Católica del Perú Eduardo Massoni

Redundancia“ Si hay redundancia podemos comprimir un mensaje” “La redundancia es buena en el sentido que permite corregir errores”

“ El idioma Ingles tiene un factor de compresion 2”

“ Mientras mayor redundancia , Mayor compresion y menor cantidad de recursos paraenviar la informacion ”

“ Mayor redundancia Menos informacion”

Page 20: Información Pontificia Universidad Católica del Perú Eduardo Massoni

Ejemplo

Central de apuestas

Hipodromo

Codificador

# promedio de bits para mandar resultados en un año

C1 C2 C3 C4 C5 C6 C7 C8

Prob 1/2 1/4 1/8 1/16 1/64 1/64 1/64 1/64

Codigo en bits

0 01 101 1011 101011

011101

111110

101111

bits2)64/1(8)64/1(8)64/1(8)64/1(8

)16/1(4)8/1(3)4/1(2)2/1(1

¿Para ocho caballos necesitamos 3 bits?

Page 21: Información Pontificia Universidad Católica del Perú Eduardo Massoni

C1 C2 C3 C4 C5 C6 C7 C8Prob 1/2 1/4 1/8 1/16 1/64 1/64 1/64 1/64Codigo en bits

0 01 101 1011 101011

011101

111110

101111

Con esta codificacion el numero promedio de bits se puede escribir como:

Con esta codificacion el numero promedio de bits se puede escribir como:

)/1(log

)64/1(8)64/1(8)64/1(8)64/1(8

)16/1(4)8/1(3)4/1(2)2/1(1

2 ii

i PP

Page 22: Información Pontificia Universidad Católica del Perú Eduardo Massoni

AL numero promedio de bits necesario para mandar la informacion esta dada por

)/1(log2 ii

i PPH

Entropia de Shannon

Eventos menos frecuentes necesitan mas bits Eventos mas frecuentes necesitan menos bits

Page 23: Información Pontificia Universidad Católica del Perú Eduardo Massoni

¿Como interpretamos la informacion en un evento?Si consideramos la variable aleatoria

MX ,....3,2,1

Con probabilidades MPPPP ,...,, 321

Diremos que la cantidad de informacion en el evento “i” estara dado por:

)/1(log2 iP

Que es consistente con:

)/1(log)( 2 ii

i PPXH

UnidadesBits o Nats

Page 24: Información Pontificia Universidad Católica del Perú Eduardo Massoni

Source code theorem by shannon

avLxH )(

El maximo de compresion posible esta dado por

El maximo de compresion mide la cantidad de informacion

Page 25: Información Pontificia Universidad Católica del Perú Eduardo Massoni

¿Hay alguna Relacion entre la entropia S y H?

)ln( 11 WKS

)ln( 22 WKS

Como en el estado inicial y final de equilibrio termico la probabilidad de cada estado es 1/W )(log)(log/1)/1(log 22

12

1

WWWPPHW

ii

W

ii

21 HH

Informacion del universo crece!!!

Page 26: Información Pontificia Universidad Católica del Perú Eduardo Massoni

Informacion Cuantica

Page 27: Información Pontificia Universidad Católica del Perú Eduardo Massoni

))log(( TrS

Entropia de Von Neumann

Quantum Information es mas complicada

•Q uantum bits

•Enmarañamiento

•Teleportacion

•Criptografia cuantica

•Decoherencia

•Informacion accesible

Page 28: Información Pontificia Universidad Católica del Perú Eduardo Massoni

Conclusiones

Gracias!!

“Debes llamarlo entropía por dos razones. En primer lugar tu función de incertidumbre ha sido usada en mecánica estadística bajo ese nombre, por tanto, ya tiene un nombre. En segundo lugar, y más importante, nadie sabe realmente qué es la entropía, por tanto, en un debate siempre tendrás esa ventaja.

Von Newmann a Shannon

Las tres leyes de la termodinámica : 1) No puedes ganar. 2) No puedes empatar. 3) No puedes abandonar el juego.