#entropy #entropia #thermodynamics #universe #ciencianews
200 anos atrás, um engenheiro francês Sadi Carnot lançou uma ideia que inevitavelmente levaria o universo para a decadência.
Mas a entropia, como é atualmente entendida, é menos um fato sobre o mundo do que um reflexo da nossa crescente ignorância.
Reconhecer isso como uma verdade está levando a uma reconsideração de tudo, desde a tomada de decisão racional até os limites das máquinas segundo relata artigo publicado na revista Quanta Magazine.
Tudo o que construímos eventualmente quebra. Todos que amamos ou amaremos morrerão.
Qualquer senso de ordem ou estabilidade inevitavelmente desmorona.
O universo inteiro segue uma jornada sombria em direção a um estado final monótono
Para acompanhar essa decadência cósmica, os físicos empregam um conceito chamado entropia.
Entropia é uma medida de desordem, e a declaração de que a entropia está sempre em ascensão — conhecida como a segunda lei da termodinâmica —
está entre os mandamentos mais inescapáveis da natureza.
A segunda lei exige que as máquinas nunca possam ser perfeitamente eficientes, o que implica que sempre que surge uma estrutura no universo, ela serve apenas para dissipar ainda mais a energia — seja uma estrela que eventualmente explode ou um organismo vivo convertendo comida em calor.
Somos, apesar de nossas melhores intenções, agentes da entropia .
“Nada na vida é certo, exceto a morte, os impostos e a segunda lei da termodinâmica”, escreveu Seth Lloyd, um físico do Instituto de Tecnologia de Massachusetts.
Não há como contornar essa diretriz. O crescimento da entropia está profundamente entrelaçado com nossas experiências mais básicas, explicando por que o tempo corre para frente e por que o mundo parece determinístico em vez de mecanicamente quântico incerto .
Mas, apesar de sua importância fundamental, a entropia é talvez o conceito mais divisivo na física.
Prossegue a quanta
A confusão decorre em parte da maneira como a entropia é conceituada e analisada entre as disciplinas — ela tem significados semelhantes, mas distintos, em tudo, da física à teoria da informação e ecologia.
Mas também é porque realmente entender a entropia requer dar alguns saltos filosóficos profundamente desconfortáveis.
À medida que os físicos trabalharam para unir campos aparentemente diferentes ao longo do último século, eles lançaram a entropia sob uma nova luz — voltando o microscópio para o vidente e mudando a noção de desordem para uma de ignorância.
A entropia não é vista como uma propriedade intrínseca a um sistema, mas como uma que é relativa a um observador que interage com esse sistema.
Essa visão moderna ilumina o profundo elo entre informação e energia, que agora está ajudando a inaugurar uma minirrevolução industrial nas menores escalas.
A noção de entropia surgiu de uma tentativa de aperfeiçoar a maquinaria durante a revolução industrial.
Assim, a entropia pode ser vista como uma medida de desordem. A segunda lei se torna uma declaração probabilística intuitiva: há mais maneiras de algo parecer bagunçado do que limpo, então, conforme as partes de um sistema embaralham aleatoriamente por diferentes configurações possíveis, elas tendem a assumir arranjos que parecem cada vez mais bagunçados.
O mesmo raciocínio se aplica ao motivo pelo qual o vidro se estilhaça, o gelo derrete, os líquidos se misturam e as folhas se decompõem.
Na verdade, a tendência natural dos sistemas de se moverem de estados de baixa entropia para estados de alta entropia parece ser a única coisa que confere ao universo uma direção temporal consistente de forma confiável.
A entropia grava uma flecha do tempo para processos que, de outra forma, aconteceriam facilmente ao contrário.
A ideia de entropia acabaria se estendendo muito além dos limites da termodinâmica.
A entropia experimentou um renascimento durante a Segunda Guerra Mundial. Claude Shannon, um matemático americano, estava trabalhando para criptografar canais de comunicação, incluindo aquele que conectava Franklin D. Roosevelt e Winston Churchill.
Assim como a entropia termodinâmica descreve a eficiência de um motor, a entropia da informação captura a eficiência da comunicação.
Ela corresponde ao número de perguntas de sim ou não necessárias para descobrir o conteúdo de uma mensagem.
Uma mensagem de alta entropia é uma mensagem sem padrões; sem uma maneira de adivinhar o próximo caractere, a mensagem requer muitas perguntas para ser totalmente revelada.
"Entropia é informação que não conhecemos; informação é informação que conhecemos."
#entropy #entropia #thermodynamics #universe #ciencianews
Информация по комментариям в разработке