O QUE É ENTROPIA? UMA MEDIDA DE QUÃO POUCO REALMENTE SABEMOS

Описание к видео O QUE É ENTROPIA? UMA MEDIDA DE QUÃO POUCO REALMENTE SABEMOS

#entropy #entropia #thermodynamics #universe #ciencianews


200 anos atrás, um engenheiro francês Sadi Carnot lançou uma ideia que inevitavelmente levaria o universo para a decadência.



Mas a entropia, como é atualmente entendida, é menos um fato sobre o mundo do que um reflexo da nossa crescente ignorância.


Reconhecer isso como uma verdade está levando a uma reconsideração de tudo, desde a tomada de decisão racional até os limites das máquinas segundo relata artigo publicado na revista Quanta Magazine.

Tudo o que construímos eventualmente quebra. Todos que amamos ou amaremos morrerão.

Qualquer senso de ordem ou estabilidade inevitavelmente desmorona.

O universo inteiro segue uma jornada sombria em direção a um estado final monótono

Para acompanhar essa decadência cósmica, os físicos empregam um conceito chamado entropia.


Entropia é uma medida de desordem, e a declaração de que a entropia está sempre em ascensão — conhecida como a segunda lei da termodinâmica —

está entre os mandamentos mais inescapáveis da natureza.


A segunda lei exige que as máquinas nunca possam ser perfeitamente eficientes, o que implica que sempre que surge uma estrutura no universo, ela serve apenas para dissipar ainda mais a energia — seja uma estrela que eventualmente explode ou um organismo vivo convertendo comida em calor.


Somos, apesar de nossas melhores intenções, agentes da entropia .

“Nada na vida é certo, exceto a morte, os impostos e a segunda lei da termodinâmica”, escreveu Seth Lloyd, um físico do Instituto de Tecnologia de Massachusetts.


Não há como contornar essa diretriz. O crescimento da entropia está profundamente entrelaçado com nossas experiências mais básicas, explicando por que o tempo corre para frente e por que o mundo parece determinístico em vez de mecanicamente quântico incerto .


Mas, apesar de sua importância fundamental, a entropia é talvez o conceito mais divisivo na física.

Prossegue a quanta


A confusão decorre em parte da maneira como a entropia é conceituada e analisada entre as disciplinas — ela tem significados semelhantes, mas distintos, em tudo, da física à teoria da informação e ecologia.


Mas também é porque realmente entender a entropia requer dar alguns saltos filosóficos profundamente desconfortáveis.


À medida que os físicos trabalharam para unir campos aparentemente diferentes ao longo do último século, eles lançaram a entropia sob uma nova luz — voltando o microscópio para o vidente e mudando a noção de desordem para uma de ignorância.


A entropia não é vista como uma propriedade intrínseca a um sistema, mas como uma que é relativa a um observador que interage com esse sistema.

Essa visão moderna ilumina o profundo elo entre informação e energia, que agora está ajudando a inaugurar uma minirrevolução industrial nas menores escalas.


A noção de entropia surgiu de uma tentativa de aperfeiçoar a maquinaria durante a revolução industrial.

Assim, a entropia pode ser vista como uma medida de desordem. A segunda lei se torna uma declaração probabilística intuitiva: há mais maneiras de algo parecer bagunçado do que limpo, então, conforme as partes de um sistema embaralham aleatoriamente por diferentes configurações possíveis, elas tendem a assumir arranjos que parecem cada vez mais bagunçados.


O mesmo raciocínio se aplica ao motivo pelo qual o vidro se estilhaça, o gelo derrete, os líquidos se misturam e as folhas se decompõem.

Na verdade, a tendência natural dos sistemas de se moverem de estados de baixa entropia para estados de alta entropia parece ser a única coisa que confere ao universo uma direção temporal consistente de forma confiável.

A entropia grava uma flecha do tempo para processos que, de outra forma, aconteceriam facilmente ao contrário.


A ideia de entropia acabaria se estendendo muito além dos limites da termodinâmica.

A entropia experimentou um renascimento durante a Segunda Guerra Mundial. Claude Shannon, um matemático americano, estava trabalhando para criptografar canais de comunicação, incluindo aquele que conectava Franklin D. Roosevelt e Winston Churchill.



Assim como a entropia termodinâmica descreve a eficiência de um motor, a entropia da informação captura a eficiência da comunicação.

Ela corresponde ao número de perguntas de sim ou não necessárias para descobrir o conteúdo de uma mensagem.

Uma mensagem de alta entropia é uma mensagem sem padrões; sem uma maneira de adivinhar o próximo caractere, a mensagem requer muitas perguntas para ser totalmente revelada.

"Entropia é informação que não conhecemos; informação é informação que conhecemos."


#entropy #entropia #thermodynamics #universe #ciencianews

Комментарии

Информация по комментариям в разработке