información pontificia universidad católica del perú eduardo massoni

Post on 28-Jan-2016

230 Views

Category:

Documents

0 Downloads

Preview:

Click to see full reader

TRANSCRIPT

Información

Pontificia Universidad Católica del Perú

Eduardo Massoni

Entropia Termodinamica

S

Leyes de la Termodinámica

Primera Ley

Segunda Ley

Conservación de la EnergíaEntropía del Universo siempre creceTercera LeyNo se puede Alcanzar el cero Absoluto

Ciclo de Carnot

Isotermico Eficiencia

Carnot

Adiabatico

Carnot: “Nadie Le Gana A Mi Motor”Motor reversible

Motor Refrigerador

C

C 2CM

C

2CM

PostuladoEs imposible un proceso cuyo único

resultado sea la transferencia de energía en forma de calor de un cuerpo de menor

temperatura a otro de mayor temperatura.Enunciado de Clausius

Carnot: “Nadie Le Gana A Mi Motor”Un motor reversible que trabaja a dos temperaturas tiene

la misma eficiencia que un motor de carnot

PostuladoEs imposible todo proceso cíclico cuyo

único resultado sea la absorción de energía en forma de calor procedente de un foco térmico (o reservorio o depósito térmico), y la conversión de toda ésta

energía en forma de calor en energía en forma de trabajo».

Enunciado de Kelvin-Planck.

Hay una cantidad asocianda al sistema que llamaremos S tal que :

Para el ciclo de Carnot

Para cualquier ciclo cerrado el cambio de entropia S es nulo

S es una funcion de estado

Segunda Ley

Universo es un sistema cerrado

S1

S2

S3

T1

T2

Q

T1

T2

Q

Procesos que no aumentan la

entropia del universo no son posibles

PostuladoEs imposible un proceso

cuyo único resultado sea la transferencia de energía en forma de calor de un cuerpo

de menor temperatura a otro de mayor temperatura.

Enunciado de Clausius

321 SSSS

0// 2121 TQTQSSS

0// 2121 TQTQSSS

¿ Que es esta variable S ?

Boltzmann

)ln(WKS

I D

W= # de formas

1) IIIIIIIIIIIIIII W=12) IIIIIIDIIIIIIII W=N

3) IDIDIDIDIDIDID W=2NI D

)1ln(1 KS )ln(2 NKS )2ln(2/

NN KS

ND /#

W

2/1

I D

Segunda Ley

•Procesos en el universo aumentan la entropia

•La entropia mide el desorden medido como el numero de estados posibles

I D

En este sistema aislado, cualquier configuracion o estado tiene la misma probabilidad WP /1

La Información es Fisica

Principio de Landauer (1961)

)2ln(KTQ El calor necesario para borrar un bit de informacion es:0 1 10

T T

)2ln()/ln( KTVVKTWQ if

La informacion se guarda en sistemas fisicos, por lo el manejo de informacion se rige bajo leyes fisicas

Demonio de Maxwell

¿Entropia decrece?

NO

)2ln(KTQ Univers

o

La entropia total del sistema +universo crece!!

Cuantificando la informacion

¿Como cuantificamos la informacion?

Codificador comprime la informacion y codifica la transmision

Teoria de la Informacion ( 1948) Lord Shannon

Canal

Codificador

Decodificador

Fuente

Receptor

A mathematical theory of communication

Medimos la cantidad de informacion por la cantidad de recursos que necesitamos para mandar un mensaje

¿Como cuantificamos la informacion?

Codificador comprime la informacion y codifica la transmision

Teoria de la Informacion ( 1948) Lord Shannon

Canal

Codificador

Decodificador

Fuente

Receptor

A mathematical theory of communication

Medimos la cantidad de informacion por la cantidad de recursos que necesitamos para manadr un mensaje

Redundancia“ Si hay redundancia podemos comprimir un mensaje” “La redundancia es buena en el sentido que permite corregir errores”

“ El idioma Ingles tiene un factor de compresion 2”

“ Mientras mayor redundancia , Mayor compresion y menor cantidad de recursos paraenviar la informacion ”

“ Mayor redundancia Menos informacion”

Ejemplo

Central de apuestas

Hipodromo

Codificador

# promedio de bits para mandar resultados en un año

C1 C2 C3 C4 C5 C6 C7 C8

Prob 1/2 1/4 1/8 1/16 1/64 1/64 1/64 1/64

Codigo en bits

0 01 101 1011 101011

011101

111110

101111

bits2)64/1(8)64/1(8)64/1(8)64/1(8

)16/1(4)8/1(3)4/1(2)2/1(1

¿Para ocho caballos necesitamos 3 bits?

C1 C2 C3 C4 C5 C6 C7 C8Prob 1/2 1/4 1/8 1/16 1/64 1/64 1/64 1/64Codigo en bits

0 01 101 1011 101011

011101

111110

101111

Con esta codificacion el numero promedio de bits se puede escribir como:

Con esta codificacion el numero promedio de bits se puede escribir como:

)/1(log

)64/1(8)64/1(8)64/1(8)64/1(8

)16/1(4)8/1(3)4/1(2)2/1(1

2 ii

i PP

AL numero promedio de bits necesario para mandar la informacion esta dada por

)/1(log2 ii

i PPH

Entropia de Shannon

Eventos menos frecuentes necesitan mas bits Eventos mas frecuentes necesitan menos bits

¿Como interpretamos la informacion en un evento?Si consideramos la variable aleatoria

MX ,....3,2,1

Con probabilidades MPPPP ,...,, 321

Diremos que la cantidad de informacion en el evento “i” estara dado por:

)/1(log2 iP

Que es consistente con:

)/1(log)( 2 ii

i PPXH

UnidadesBits o Nats

Source code theorem by shannon

avLxH )(

El maximo de compresion posible esta dado por

El maximo de compresion mide la cantidad de informacion

¿Hay alguna Relacion entre la entropia S y H?

)ln( 11 WKS

)ln( 22 WKS

Como en el estado inicial y final de equilibrio termico la probabilidad de cada estado es 1/W )(log)(log/1)/1(log 22

12

1

WWWPPHW

ii

W

ii

21 HH

Informacion del universo crece!!!

Informacion Cuantica

))log(( TrS

Entropia de Von Neumann

Quantum Information es mas complicada

•Q uantum bits

•Enmarañamiento

•Teleportacion

•Criptografia cuantica

•Decoherencia

•Informacion accesible

Conclusiones

Gracias!!

“Debes llamarlo entropía por dos razones. En primer lugar tu función de incertidumbre ha sido usada en mecánica estadística bajo ese nombre, por tanto, ya tiene un nombre. En segundo lugar, y más importante, nadie sabe realmente qué es la entropía, por tanto, en un debate siempre tendrás esa ventaja.

Von Newmann a Shannon

Las tres leyes de la termodinámica : 1) No puedes ganar. 2) No puedes empatar. 3) No puedes abandonar el juego.

top related