bookmark_borderO que é perplexidade

perplexidade | s. f.
per·ple·xi·da·de |cs| per·ple·xi·da·de |cs|
nome feminino

1. Irresolução, hesitação, dúvida.

2. Ambiguidade .

3. [Retórica]   [Retórica]   O mesmo que dúvida.


substantivo feminino Circunstância ou estado de perplexo.
Estado de quem demonstra hesitação, diante de uma situação complexa, em que não se sabe qual decisão tomar: ficou chocado diante da perplexidade dos fatos; ficou em estado de perplexidade ao presenciar aquela cena horrível.
Etimologia (origem da palavra perplexidade). Do latim perplexitas.atis.


Em teoria da informação, a perplexidade é uma medida de quão bem uma distribuição de probabilidade ou modelo de probabilidade prevê uma amostra. Pode ser usada para comparar modelos de probabilidade. Uma baixa perplexidade indicada que a distribuição de probabilidade é boa em prever a amostra.


bookmark_borderO que é entropia

entropia | s. f.
en·tro·pi·a
(francês entropie )
substantivo feminino

1. [Física]   [Física]   Medida da desordem de um sistema. ≠ NEGUENTROPIA

2. [Física]   [Física]   Medida da quantidade de energia que não é convertida em trabalho mecânico.

3. Desordem ou imprevisibilidade. ≠ NEGUENTROPIA

entropia negativa • [Física]   • [Física]   Medida da ordem de um sistema. = NEGUENTROPIA


substantivo masculino Medida que, num sistema termodinâmico, determina o grau de desordem, pela ação de uma temperatura; representada por “S”: gelo derretendo é um exemplo comum de aumento da entropia.
[Figurado] Falta de ordem; ausência de previsibilidade: entropia eleitoral.
[Figurado] Estado do que está inativo ou em decadência: entropia política.
[Física] A medida de energia que, num sistema físico, está indisponível para a efetuação do trabalho.
Não confundir com: entalpia.
Etimologia (origem da palavra entropia). Do inglês entropy.


A entropia (do grego εντροπία, entropía), unidade [J/K] (joules por kelvin), é uma grandeza termodinâmica que mede o grau de liberdade molecular de um sistema , e está associado ao seu número de configurações (ou microestados), ou seja, de quantas maneiras as partículas (átomos, íons ou moléculas) podem se distribuir em níveis energéticos quantizados, incluindo translacionais, vibracionais, rotacionais, e eletrônicos. Entropia também é geralmente associada a aleatoriedade, dispersão de matéria e energia, e “desordem” (não em senso comum)de um sistema termodinâmico. A entropia é a entidade física que rege a segunda lei da termodinâmica, a qual estabelece que a ela deve aumentar para processos espontâneos e em sistemas isolados. Para sistemas abertos, deve-se estabelecer que a entropia do universo (sistema e suas vizinhanças) deve aumentar até atingir um valor máximo no estado de equilíbrio.
A segunda lei da termodinâmica foi primeiramente relacionada historicamente com processos cíclicos que convertiam calor em trabalho. Percebeu-se que energia térmica (calor) não poderia ser completamente convertida em trabalho em máquinas térmicas de motor perpétuo, sempre havendo a necessidade de perda de uma quantidade mínima de calor para um reservatório frio para que o sistema voltasse ao estado original. Dessa maneira, a variação de entropia de um processo está relacionada com a parcela de energia que não pode ser transformada em trabalho em transformações termodinâmicas a dada temperatura. Por esse fato, a mensuração da variação de entropia está diretamente relacionada a processos reversíveis, uma vez que processos no equilíbrio (ou mais próximos possíveis às condições de equilíbrio) estão associados com a máxima energia que um sistema pode perder para as vizinhanças na forma de trabalho (chamado de trabalho máximo ou trabalho útil). Portanto a energia “não disponível” é o mínimo valor que seria descartado na forma de calor reversível para que o processo ocorra espontaneamente. Em outras palavras, a variação de entropia mede o grau de irreversibilidade de um processo.
A parcela máxima de energia interna de um sistema pode mais ser convertida em trabalho em um dado processo pode ser determinada pelo produto da variação de energia interna do processo subtraído do produto da variação entropia S pela temperatura absoluta T do sistema no respectivo estado (desde que a temperatura constante). Essa parcela máxima de energia é conhecida como variação de energia livre de Helmholtz (ΔA). Dessa maneira, define-se a energia livre de Helmholtz como

A
=
U

T
S

{\displaystyle A=U-TS}
. Esse valor, assim como a entropia, é uma função de estado do sistema, e por tal dá origem a um potencial termodinâmico: a energia livre de Helmholtz do sistema em consideração. Esse valor prevê espontaneidade a processos que ocorrem a temperatura e volume contante, e deve diminuir para processos espontâneos, correspondendo, portanto, ao trabalho máximo. Para processos que ocorrem a pressão e temperatura constante, pode-se usar, analogamente, a energia livre de Gibbs, sendo útil particularmente para prever espontaneidade para reações químicas e mudanças de fase.
A entropia não é uma grandeza que busca mensurar a energia ou a matéria totais encerradas pelas fronteiras do sistema termodinâmico, mas sim como esta matéria e esta energia encontram-se armazenadas e distribuídas no sistema definido por tais fronteiras. Assim, embora uma grandeza bem distinta das grandezas massa, energia interna e quantidade de matéria, a entropia de um sistema encontra-se certamente relacionada às grandezas citadas, sendo, da mesma forma que as anteriores, uma propriedade do sistema. A fim de definir-se um sistema simples especificam-se a energia interna U, a massa m – especificamente a quantidade de matéria N e a natureza das partículas que integram o sistema – e o seu volume V, e ao fazê-lo determina-se também, de forma automática, o valor da entropia S do sistema – uma grandeza escalar – no estado final a ser atingido uma vez dado tempo suficiente para que todos os processos necessários aconteçam. Assim a entropia S nos estados de equilíbrio termodinâmico é uma função das grandezas antes citadas:

S
=

S

(
U
,
V
,
N
)

{\displaystyle S=S_{(U,V,N)}}
.
Assim, segundo a Segunda Lei da Termodinâmica, processos que levam o sistema do estado inicial, logo após ter sido isolado, até o estado de final (o estado de equilíbrio termodinâmico ) ocorrem sempre de forma a provocarem aumentos ou, no limite, a manutenção, do valor da entropia do sistema. Não ocorrem processos que impliquem a diminuição da entropia total de um sistema isolado. A entropia é, pois, uma função de estado que obedece a um princípio de maximização, o “princípio da máxima entropia”: a entropia em um estado de equilíbrio termodinâmico – satisfeitas as restrições impostas ao sistema – é sempre a máxima possível. Portanto, sistemas fora do equilíbrio tendem a caminhar irreversivelmente para o estado de equilíbrio, e o aumento de entropia indicará o sentido espontâneo do processo.
A entropia é uma função de estado cujo valor sempre cresce durante processos naturais em sistemas isolados; e quando escrita em função das grandezas extensivas energia interna U, volume V e número de elementos N – no caso dos sistemas termodinâmicos mais simples – a entropia

S
=

S

(
U
,
V
,
N
)

{\displaystyle S=S_{(U,V,N)}}
é, assim como as respectivas Transformadas de Legendre, uma equação fundamental para o sistema termodinâmico em questão. É, então, possível, a partir desta e de todo o formalismo termodinâmico, obter-se qualquer informação física relevante para o sistema em estudo.Se expressa em função de uma ou mais grandezas que não as citadas – cônjuges a si – a expressão para a entropia S reduz-se a uma mera equação de estado. As equações de estado, embora relacionem valores de grandezas termodinâmicas nos estados de equilíbrio, não retêm em si, individualmente, todas as informações acerca do sistema. É necessário o conhecimento de todas as equações de estado para recuperar-se a completeza acerca das informações – para a partir delas se estabelecer uma equação fundamental – e via transformada de Legendre, se estabelecer qualquer das demais equações fundamentais – se desejada.