• Nenhum resultado encontrado

VIDEO DIGITAL. 1. Processo de captura de vídeo. Sumário. 0. Introdução

N/A
N/A
Protected

Academic year: 2021

Share "VIDEO DIGITAL. 1. Processo de captura de vídeo. Sumário. 0. Introdução"

Copied!
14
0
0

Texto

(1)

VIDEO DIGITAL

João Paulo de Sá Valbom

ESTG, Av. Sá Carneiro, nº50, 6300-559 Guarda, Portugal

Sumário

Desde do nascimento do homem que houve necessidade em comunicar. Estimulado por expressar as suas ideias, interesses, ou simplesmente marcar a sua própria existência no tempo e no espaço, o homem desenvolveu várias formas de comunicação. Hoje, o vídeo é sem dúvida nenhuma, a forma mais expressiva de se apresentar um conteúdo. Num computador, o vídeo é armazenado de uma forma muito parecida com a de um rolo de filme, ou seja, uma sequência de imagens (frames). Devido à grande quantidade de espaço necessária para armazenar um vídeo num computador, é usado um menor número de frames por segundo e uma compressão entre frames. É neste contexto que este relatório se baseia, foi feito um estudo genérico sobre o funcionamento do vídeo digital, os formatos de vídeo mais utilizados, os métodos de compressão de vídeo, e ainda algumas aplicações do vídeo digital.

0.

Introdução

Desde os tempos do cinema mudo que as pessoas são fascinadas por filmes. O Vídeo digital é uma poderosa ferramenta para aproximar os utilizadores do computador ao mundo real. Da mesma forma que o uso do vídeo pode abrilhantar uma apresentação ele pode destruí-la se não for adequado ou bem produzido. Padrões e formatos para texto digital, figuras e som já estão bem estabelecidos e conhecidos. O vídeo é o novo elemento da multimédia e ainda precisa de alguns refinamentos para o transporte, armazenamento, compressão e técnicas de publicação. De todos os elementos da matriz multimédia, o vídeo é o que requer melhor performance e memória do computador.

1. Processo de captura de vídeo

Existe actualmente uma grande disputa entre dois fabricantes para o domínio dos protocolos de digitalização de vídeo para PC. A Microsoft propõe o Vídeo for Windows, que se apresenta no formato AVI, enquanto que a Apple surgiu com uma versão para PC do seu

Quicktime , tipicamente MOV, que está omnipresente em sistemas MAC. Tal como no caso

do som e das animações vectoriais, um vídeo em formato digital, para ser utilizado numa aplicação multimédia, necessita que existam instalados no sistema os respectivos drivers

(2)

para o MCI (Media Control Interface), responsável por toda a gestão de media no PC. Qualquer um destes dois formatos obedece ao mesmo princípio de funcionamento: ambos armazenam, para posterior reprodução, um conjunto de imagens sincronizadas com a respectiva banda sonora. A designação escolhida pela Microsoft para o ficheiros produzidos ao abrigo do seu protocolo de digitalização de vídeo é o reflexo disso mesmo. Estes ficheiros possuem a extensão AVI, que serão as iniciais de Audio-Video Interleaved.

Figura 1 - Processo de captura de vídeo

O processo de captura de vídeo e sua digitalização é bastante simples, pois somente é necessário possuir uma placa digitalizadora de vídeo - designada habitualmente por

VideoBlaster - ligada ao barramento do PC e, naturalmente, um reprodutor de vídeo,

independentemente do seu formato ser VHS, Beta, SVHS, Hi8, ou qualquer outro. É óbvio que quanto melhor for o suporte utilizado na gravação das imagens melhor será a imagem digitalizada. Uma vez em formato AVI o vídeo pode ser editado, cortado ou transformando segundo as necessidades. O software de baixa gama actualmente disponível não permite ainda que se façam alterações muito significativas a este nível, mas já se torna directo o processo de corte e mistura de vários ficheiros e a sua fusão num só.

2. Formatos de Vídeo Digital

2.1. Mov (QuickTime)

Quicktime é a extensão de multimedia para o sistema Macintosh e é uma parte do seu sistema operativo. O Quicktime é uma estrutura desenvolvida para armazenar dados

(3)

baseados em tempo tais como o vídeo digital e não é um algoritmo de compressão. Ao contrário, diferentes compressores são fornecidos pelo Quicktime. Todos os compressores suportam diferenciação de frames, isto significa, que não a frame não está comprimida, nem armazenada na sua totalidade. Isto aumenta a taxa de compressão, mas por outro lado, não é possível saltar directamente para uma frame, descodificá-la e exibi-la. Assim o algoritmo insere as chamadas keyframe (frames chave) denominadas nos fluxos de dados. O número de frames por keyframe pode ser definido pelo utilizador no modo de compressão standard; como norma o número de frames entre keyframe deve ser aproximadamente metade da taxa, isto é, quando exibimos 30 frames por segundo, depois de cada 15ª frame deverá ser inserida uma keyframe). Além disso Quicktime insere uma keyframe automaticamente, se uma frame difere de sua predecessora por mais que 90%.

2.2. AVI (Audio-Video Interleaved)

Norma de áudio e vídeo digital comum ao Windows em que a imagem e som são entrelaçados na mesma stream e codificados no mesmo arquivo. Tanto o AVI como o MPEG assentam sobre algoritmos de compressão da imagem e do som digital que podem ser descomprimidas com recurso a placas gráficas. O formato dos ficheiros AVI é uma parte central de Vídeo para Windows. Os ficheiros AVI são um caso especial de ficheiros RIFF (Resource Interchange File Format). Este é um formato geral desenvolvido pela Microsoft e IBM com o propósito de trocar tipos de dados de multimédia.

2.3. MPEG (Motion Pictures Experts Group)

Com o propósito de compartilhar tecnologia entre os diferentes segmentos da indústria, a ISO encarregou-se de desenvolver um padrão para vídeo associado a áudio em um meio de armazenamento digital. Este conceito de armazenamento digital inclui os dispositivos de armazenamento convencionais como o CD-ROM, os drives, winchesters, assim como os canais de telecomunicações como os de RDIS e LANs. As actividades do MPEG cobrem mais do que compressão de vídeo, uma vez que a compressão do áudio associado e a sincronização áudio-visual não podem ser tratados independentemente da compressão de vídeo. MPEG-Vídeo trata da compressão de sinais de vídeo em torno de 1.5 Mbits, enquanto MPEG-Áudio trata da compressão de sinais digitais de áudio com taxas de 64, 128 e 192

(4)

kbit/s por canal. O MPEG-Sistema trata da sincronização e multiplexação dos fluxos de áudio e vídeo comprimidos. Este trabalho se propões a estudar o MPEG-Vídeo.

O MPEG possui uma metodologia que é dividida em três partes: Requerimentos, Competição e Convergência. A fase de requerimentos tem dois propósitos: primeiro, determinar o foco do estudo, e depois, determinar as regras do jogo para a fase de competição. Quando o MPEG começou seus estudos, os requerimentos para a integração de vídeo digital e computação não eram totalmente entendidos, então o MPEG deu bastante liberdade para os projectos de sistemas e para aceder várias aplicações.

Quando se desenvolve um padrão internacional, é muito importante ter certeza de que tudo é feito com base em um máximo de informações, para que a vida do padrão seja longa; não há nada pior do que um padrão que é obsoleto logo depois de sua publicação. Isto que dizer que a tecnologia envolvida deve estar no estado da arte, e o padrão deve trazer o que há de melhor das pesquisas académicas e industriais. A fim de atender este objectivo, uma fase de competição seguida de extensivos testes é necessária. A fase de convergência é um processo de colaboração onde as ideias e técnicas identificadas como promissoras no final da fase de competição devem ser integradas em uma solução. Esta fase possui um documento chamado de um modelo de simulação e uma série de experiências documentadas. As experiências são usadas para resolver qual das alternativas fornece a melhor qualidade levando em consideração o custo de implementação.

2.3.1. Especificações do MPEG-Vídeo

Diz-se que o MPEG é um padrão genérico uma vez que o meio de armazenamento digital deve suportar várias aplicações. Isto porque vários segmentos da indústria estavam presentes junto ao comité da ISO. Genérico que dizer que o padrão é independente de uma aplicação em particular, mas não quer dizer que ignore os requerimentos das aplicações. Um padrão genérico possui características que o tornam universal. Muitas aplicações foram propostas baseadas em que uma qualidade de vídeo aceitável pode ser obtida para uma banda de aproximadamente 1.5 Mbits/s.

Muitos meios de armazenamento e canais de telecomunicações são perfeitamente compatíveis com uma técnica de compressão de vídeo com taxas entre 1 e 1.5 Mbits/s. O CD-ROM é um importante meio de armazenamento devido a sua larga capacidade e ao seu

(5)

baixo custo. Os winchesters fornecem bastante flexibilidade, mas a um custo elevado e de portabilidade limitada. As redes de computadores e de telecomunicações também são compatíveis com esta compressão, e a combinação de armazenamento digital e redes pode dar origem a muitas aplicações de vídeo em LANs para distribuição através de linhas telefónicas. As aplicações são divididas em simétricas ou assimétricas. Aplicações simétricas requerem essencialmente o mesmo uso do processo de compressão e de descompressão. Aplicações assimétricas são aquelas que requerem uso frequente do processo de descompressão, e o processo de compressão é feito uma vez.

As especificações para compressão possuem um impacto natural sobre a solução. O algoritmo de compressão deve possuir características que permitam atender todos os requerimentos. As seguintes características foram identificadas como importantes a fim de atender às necessidades das aplicações do MPEG.

• Acesso aleatório - O acesso aleatório requer que os dados do vídeo comprimido estejam acessíveis no meio e que qualquer frame do vídeo seja decodificado em um intervalo de tempo limitado.

• Sincronização audiovisual - O sinal de vídeo deve ser correctamente sincronizado com a fonte de áudio associada.

• Resistente a erros - A maioria dos meios de armazenamento digital e dos canais de comunicação não são livres de erros, e como se espera que um canal seja usado por várias aplicações, o código fonte deve resistir a erros incorrectos que permanecerem no canal, evitando procedimentos errados.

2.3.2. MPEG1

O MPEG1 apresenta uma baixa resolução. Cerca de 352 por 240 frames, com 30 frames por segundo. As imagens são a cores, mas convertidas para o espaço YUV e os dois canais U e V são transformados para 176 por 120 pixels. Isto resulta, que se pode ficar com menos resolução nestes canais e não notar isso, pelo menos em imagens naturais (não as geradas por computador).

O esquema básico é prever as imagens de frame para frame, na direcção temporal e depois usar DCTs (Discrete Cosine Transforms) para organizar a redundância. Os Dcts são feitos em blocos de 8x8 e a previsão do filme é feita no canal Y (luminância) em blocos de 16x16.

(6)

Os coeficientes DCT são quantificados, o que significa que são divididos por algum valor para largar bits do fundo. A quantificação pode variar para cada macrobloco (um macrobloco é 16x16 em Y e o correspondente 8x8 em ambos os canais, U e V). O resultado de tudo isto, que incluí os coeficientes DCT, os vectores vídeo e os parâmetros de quantificação é o código Huffman usando tabelas fixas.

2.3.3. MPEG2

O MPEG2 é composto por três partes distintas, o MPEG2 Vídeo, Áudio e Sistemas. O conceito do MPEG2 é similar ao do MPEG1, mas inclui extensões para cobrir uma maior variedade de aplicações. Aquando do processo de definição do MPEG2, a primeira aplicação a que este se dirigia foi a transmissão de vídeo de qualidade da TV digital com

bitrates entre 4 e 9 Mbit/Seg. Contudo, a sintaxe do MPEG2, foi considerada eficiente para

outras aplicações, tais como aquelas com bitrates mais elevadas. A melhoria mais significativa sobre o MPEG1 é a adição de sintaxe para a codificação de vídeo interlaçado (16x8 de tamanho de bloco). Outra das características do MPEG2 são as extensões escalonáveis, o que permite a divisão de um sinal de vídeo continuo em duas ou mais cadeias de bits representando o vídeo a diferentes resoluções, qualidade imagem ou taxa de imagem.

2.3.4. MPEG4

Está já a ser desenvolvido o MPEG4, que quando completo será capaz de abranger todo um conjunto de novas aplicações, incluindo comunicações multimédia interactivas, video-telefone, comunicação audiovisual móvel, mail multimédia electrónico, sensing remoto, jornais electrónicos, bases de dados multimédia interactivas, jogos, captação de sinais da linguagem, entre outras.

2.4. ASF (Advanced Streaming Format)

Entende-se ASF como Advanced Streaming Format, talvez o melhor modo para explicar o que é ASF é olhar os seus termos constituintes. O termo " Format " refere-se a um formato de ficheiro. Um formato de ficheiro é um conjunto de regras para organizar dados. O termo "

Streaming " refere-se a um método particular de conjugar dados recebidos através de uma

(7)

através da rede para a máquina do cliente, que assim poderá dispor desta informação. O método streaming é bastante superior aos métodos anteriores uma vez que o cliente não tem que esperar que o download acabe para poder ver o vídeo, e o clipe não consome espaço de disco. Isto abre uma porta importante para radiodifusões de vídeo ao vivo.

O termo " Advanced " refere-se à natureza dinâmica das apresentações de multimédia tornada possível com o ASF. Com o ASF, uma apresentação multimédia que consiste num vídeo sincronizado com transições do PowerPoint que transitam no momento certo, e com controles de ActiveX que são lançados no momento certo, pode ser enviado através de uma rede e pode ser utilizada por clientes. De facto, o ASF permite a combinação inteligente de todo e qualquer tipo de conteúdos de multimedia, inclusive texto, gráficos, animação, MIDI, e áudio. Os dados armazenados no formato de ASF podem representar apresentações de multimédia dinâmicas, avançadas.

2.4.1. Qual o papel do ASF no mundo da multimédia

Até muito pouco tempo atrás, a multimédia digital só estava disponível para reprodução a partir de sistemas de armazenamento local, tais como o CD-ROM ou um disco. A Internet está a mudar todo este panorama, neste momento muitos conteúdos multimédia estão disponíveis em servidores ligados entre si. Os clientes limitam-se a aceder aos servidores através da rede e recebe o conteúdo multimédia do servidor, na forma de um fluxo de dados. O ASF é um conjunto de regras de criação, não é um conjunto de regras de entrega, nem um conjunto de regras de reprodução. Regras de entrega são dirigidas através de protocolos de rede. A multimedia inclui protocolos de rede, importantes tais como o RTP (Real Time Protocol), o RTSP (Real Time Streaming Protocol) e o IP Multicast.

2.4..2. Como é que o ASF revolucionará a multimédia ?

Falar de uma revolução iminente é dizer que há um desejo difundido para mudança. Durante anos fomos despertados pelas tecnologias de multimedia mais antigas como AVI, MPEG-1, MPEG-2, e QuickTime, hoje o ASF representa o maior passo para alcançar interacção de ferramentas de produção de vídeo, servidores, e clientes. A interactividade reduzirá o risco de escolher o produto de um vendedor em detrimento de outro. A interactividade fará segura, directa, e barata a escolha para criar streaming vídeo. De facto, poderemos dizer que

(8)

está prestes a iniciar a revolução de multimédia digital.

2.4.3. As grandes vantagens que o ASF introduz no mundo da multimédia?

É sabido que o ASF permite a entrega eficiente e reprodução de apresentações de multimedia poderosas que envolvem a combinação e sincronização de vários tipos de médias. O ASF faz tudo isto, e de uma maneira eficiente. Em particular, ASF provê certos benefícios fundamentais:

!"Reprodução local e em rede - O ASF permite reprodução de conteúdos multimedia de

uma fonte local e de um servidor distante numa rede, inclusive Intranets e Internet. Isto é muito importante para programadores, uma vez que ao produzirem uma apresentação multimédia, não sabem se aquela apresentação será entregue em última instância num CD-ROM local, ou num servidor de rede, ou ambos.

!"Prioridade de fluxos - O ASF permite para o autor estabelecer prioridade entre os vários

fluxos de dados. Por exemplo, um texto poderia ser mais importante que áudio, que poderia ser em troca mais importante que vídeo. O autor pode estabelecer esta hierarquia inserindo um objecto de prioridade no cabeçalho do ficheiro ASF.

!"Independência de ambiente - Os ficheiros ASF são divulgados em vários espaços

diferentes: a máquina de produção, o servidor que os transporta na rede, e a máquina de cliente. Há tecnologias diferentes para cada um destes espaços, inclusive tipos de rede, protocolos, e sistemas operativos. No entanto os ficheiros ASF podem ser gerados em qualquer máquina de produção, entregue em qualquer infra-estrutura de rede, e pode ser recebido e pode ser reproduzido em qualquer máquina de cliente. Esta independência é importante para interactividade universal. É semelhante a um livro de ensino que pode ser impresso por uma qualquer editora, distribuído por um qualquer canal de distribuição, e pode ser lido por qualquer pessoa.

3. Compressão de vídeo digital

O futuro tecnológico está ligado ao desenvolvimento da técnica de compressão de vídeo digital, razão pela qual grandes grupos pesquisam, agressivamente, visando a escolha de um melhor sistema. O objectivo da compressão de vídeo é a redução da quantidade de dados

(9)

necessários para armazenar um arquivo de vídeo digital, mantendo a qualidade do vídeo original. Esse sistema tende a aproveitar a redundância presente na fonte de vídeo, que é limitada à sensibilidade do olho humano. A representação do sinal determina o que especificamente será codificado. Remove o sinal repetitivo e elimina a informação redundante para o olho humano. Uma representação eficiente utiliza uma pequena quantidade de dados para uma reconstrução apropriada do sinal de vídeo. Alguns factores devem ser avaliados na compressão de vídeo:

Tempo real - Em tempo real, alguns sistemas de compressão capturam, comprimem,

descomprimem e reproduzem o vídeo sem atraso. Outros sistema são apenas capazes de capturar alguns frames por segundo e/ou capazes de reproduzir alguns destes frames. A taxa insuficiente de frames é uma das deficiências notadas. Sem o mínimo de 24 frames por segundo, o vídeo ficará irregular. Também a perda de frames poderá causar sérios problemas para a sincronização dos dados. Por exemplo, se o movimento dos lábios de uma pessoa é perdido durante a captura ou a reprodução, ficará impossível igualar o áudio com o vídeo correctamente.

Compressão simétrica - Se refere como uma imagem é comprimida e descomprimida. A

compressão simétrica significa que se é possível reproduzir uma sequência de vídeo com 30 frames por segundo, também é possível a captura, compressão e armazenamento com esta taxa. Compressão assimétrica é justamente o oposto. O grau de assimetria é usualmente expresso através de uma relação. A compressão assimétrica pode algumas vezes ser mais eficiente em termos de qualidade e velocidade para reprodução, porque utiliza um pouco mais de tempo para a compressão de vídeo.

Taxa de compressão - A taxa de compressão indica em quantas vezes o vídeo

comprimido fica menor do que o vídeo original. Quanto mais alta for esta taxa, maior será a compressão aplicada ao vídeo. Em geral, alta taxa de transmissão piora a qualidade do vídeo.

Perda - O factor perda determina se existe uma perda de qualidade entre a imagem

original e depois de ter sido comprimida e reproduzida (descomprimida). Virtualmente, todo método de compressão perde alguma qualidade quando se comprime dados; ainda que a diferença de qualidade não seja observada, este método de compressão é considerado com perda.

(10)

4. Métodos de Compressão de vídeo (Codecs)

A recente onda de aplicações de multimédia para computadores conduziu ao desenvolvimento de uma variedade de métodos de compressão (CODEC - COmpression/DECompression). Tanto o Quicktime para o Windows e Vídeo para Windows são projectados com arquitecturas de codec abertas. A forma do algoritmo comprimir uma sequência de vídeo é especificada nos dados do formato do ficheiro. Para identificar o

codec, o software vídeo carrega o driver apropriado para descomprimir os dados. Isto pode

incluir codecs que usem hardware para acelerar o processamento ou algoritmos implementados somente em software.

Para aplicações de CD-ROM, codecs que podem descomprimir vídeo sem qualquer hardware especial são atraentes porque a aplicação potencial é grande. Isto acontece porque a maioria do vídeo em CD-ROM é comprimido com o Cinepak de SuperMac ou o Indeo da Intel. Este codecs podem alcançar uma taxa de 30 frames por segundo para imagens de 160 x 120 pixels e com 16-bit de cor e uma taxa de 15 frames por segundo para imagens de 320 x 240 pixels.

Mas escolha de um codec é mais que uma batalha entre Cinepak e Indeo. Há três critérios envolvidos na selecção de um CODEC, são eles o nível de compressão, a qualidade do vídeo comprimido e a velocidade de compressão/descompressão.

4.1. Exemplos de codecs usados para Quicktime e Vídeo para Windows

Motion JPEG – O JPEG é um codec de compressão que remove as redundâncias em frames

individuais. Motion JPEG é uma adaptação do padrão de imagem parada do vídeo. Motion JPEG usa os mesmos algoritmos como o JPEG criar Frames-I (intraframes comprimidas), e assim as frames sucessivas são comprimidas mantendo a compressão de parâmetros constante, e mantendo o ritmo do fluxo de dados de vídeo em tempo real.

MPEG - O MPEG foi projectado para o vídeo digital e usa os mesmos algoritmos do JPEG

para Frames-I, então desta maneira remove a redundância de frames sucessivas através da predição das Frames-I e codifica só a diferença das suas predições. Este processo chamado compressão é designado por compressão em interframe. O comité de MPEG criou dois padrões, a 320x 40 a 30fps e MPEG II com qualidade de estúdio a 704x480 a 30fps.

(11)

Cinepak – O Cinepak é um codec baseado na quantificação de vector e foi desenvolvido

especificamente para permitir vídeo de 24-bits numa resolução de 320x240 pixels. O vector de quantificação armazena informação sobre as diferenças entre frames de vídeo quantificando a magnitude e direcção do movimento de um pixel. O descompressor de Cinepak usa então um CLUT (color lookup table) para recrear a cor de cada pixel em cada

frame. Cinepak é um codec altamente assimétrico, com um processo de compressão que leva

300 vezes mais muito tempo do que a descompressão. Porém, Cinepak tem uma descompressão altamente eficiente e reprodução bem planeada. A opinião geral é que o Cinepak é melhor que Indeo para sucessões de acção e é tipicamente mais rápido para reproduções a16 e 24-bits.

Indeo da Intel - O Indeo de Intel define o formato para captura de vídeo usada pelo hardware

ISVR (Gravação Inteligente de Vídeo da Intel) que permite comprimir em real tempo. É actualmente um dos codecs vídeo mais utilizado para aplicações de computador multimédia. Indeo produz as sequências de acção com pouco movimento, de alta qualidade a taxas muito baixas, mas é pior que o Cinepak para sequências de acção bastante rápidas . Relativamente à compressão está ligeiramente mais rápido que o Cinepak, mas ainda assim está lento.

Video1 e MotiVE da Media Vison – O MotiVE é um codec baseado coseno discreto que foi

autorizado por Microsoft como a base de Microsoft Vídeo 1, que era o codec primário em no Vídeo para Windows.

TrueMotion - O TrueMotion é um esquema de quantificação de vector. Produz vídeo de

qualidade aceitável a uma taxa de reprodução de 600 kb/sec. A sua compressão é altamente assimétrica mas a descompressão é bastante rápida.

RLE da Microsoft - Este codec foi desenvolvido com Vídeo para Windows 1.0. é um codec

simples que é aperfeiçoado para animações, mas tem um desempenho relativamente pobre para imagens reais.

SoftVideo , Iterated Systems and TMM - Softvideo é um codec de vídeo baseado no

algoritmo de compressão de fractais. Este é um codec extremamente assimétrico sempre que a compressão de fractal é um processo que consome muito tempo, já que são necessárias 15 horas para comprimir um minuto de vídeo. Porém, descompressão e reprodução são rápidas. Uma característica chave de compressão de fractais é ao nível da escala , uma vez que a resolução do vídeo é independente do tamanho da janela, porque as imagens de fractais são

(12)

codificadas com equações, elas não têm nenhum tamanho inerente.

DVI da Intel - O Vídeo Digital Interativo da Intel (DVI) usa técnicas de interframe para a

compressão de vídeo, semelhante ao MPEG. DVI provê níveis diferentes de qualidade para o vídeo e para dados áudio.

5. Aplicações de Vídeo Digital

Gravação de vídeo analógico é uma tecnologia madura e alcançou quase os limites determinados pelas leis físicas. A tecnologia do vídeo digital tem o potencial para alcançar níveis muito mais altos de qualidade e a tecnologia está a ser melhorada a uma taxa crescente. Mas vídeo digital é algo mais o que fornecer melhores imagens que o analógico. Tem várias propriedades sem igual que fazem possíveis aplicações que não puderam ser percebidas usando vídeo de analógico. Primeiramente, vídeo digital pode ser manipulado mais facilmente que vídeo de analógico. Além disto, vídeo digital pode ser armazenado em mídia de acesso fácil, considerando que vídeo de analógico geralmente é armazenado em fita magnética. Finalmente, vídeo em forma digital pode ser transmitido por canais indisponíveis para vídeo analógico. Vídeo digital pode ser duplicado sem perda de qualidade que é importante para editar aplicações. A habilidade para armazenar facilmente e transmitir vídeo digital é sem dúvida a sua propriedade mais importante. Explorando tecnologias semelhantes, os sistemas de televisão por cabo podem ter uma maior capacidade para prover centenas de canais de vídeo digital.

O Vídeo-em-demanda está actualmente disponível só a título de teste. Serviços de vídeo-em-demanda poderiam substituir a viagem eventualmente para a loja vídeo, mas só se o custo de descodificadores de topo fixos for de mais baixo custo. O grau de interacção pode variar de aplicação a aplicação e pode variar de escolha de programa como em vídeo em demanda, escolha e ordem de tópicos como em muitas aplicações de pesquisa, ou até mesmo interacção contínua como em jogos.

Vídeo digital integrado em aplicações interactivas junto com outras medias, como som, animação, fotografias e texto, conhecidas como multimédia, é uma das aplicações mais populares do vídeo digital. Aplicações de Multimédia exploram tudo das propriedades de vídeo digital. A facilidade com que vídeo pode ser manipulado permite baixa produção de custo de sucessões vídeos por profissionais de televisão.

(13)

A Televisão de Alta Definição (HDTV) foi por muitos anos desejável, mas de momento está ainda um pouco longe a sua estreia. Isto não é com certeza devido à falta de interesse de consumidor, pelo contrário, é esperado que a HDTV seja um sucesso enorme. A HDTV oferecerá vantagens de qualidade impressionantes acima da televisão convencional. As imagens serão refinadas e telas serão maiores e terão relações de qualidade muito superiores.

Uma outra aplicação do vídeo digital é a videoconferência. O conceito da videoconferência vai mais além da simples conversação entre duas pessoas. Na videoconferência, tanto os dados como o vídeo são partilhados interactivamente entre vários locais, contudo, o vídeo é o elemento que reúne mais informação e por esse motivo exige um canal de comunicação com maior capacidade, algo que é conhecido genericamente por largura de banda. Uma sequência de vídeo é composta tipicamente por 30 frames ( em cada segundo) que são mostrados sequencialmente para dar a ilusão de movimento. Sendo assim, o ideal seria o utilizador conseguir enviar 30 frames por segundo através do canal de comunicação em videoconferência. Utilizando a nossa imagem de 300x200 pixels equivalente a 60 Kb, se multiplicarmos este valor por 30 frames por segundo obtemos cerca de 1,8 Mbps de informação. Se utilizarmos a linha de telefone pública, com um modem de 33,6 kbps, seriam necessários cerca de sete minutos para transmitir um segundo de vídeo, claro que este valor é obviamente inaceitável para uma comunicação em tempo real.

Existem duas maneiras de resolver este problema: a primeira consiste em utilizar um canal de maior largura de banda, e a segunda é recorrer à utilização de técnicas de compressão de dados. O valor aceitável para a taxa de frames por segundo em termos de videoconferência é de cerca de 10 fps, tudo o que seja abaixo deste valor torna-se aborrecido de ver. Sendo assim, a resolução do problema passa pela compressão dos frames que compõem a sequência de vídeo.

6. Referências

• Marschall B., Integration of Digital Video into Distributed Hypermedia Systems, • Gilge M., Motion Video Coding for Packet Switching Networks

(14)

Links diversos: (Todos consultados entre os dias 20 e 31 de Dezembro de 1999) • http://home.earthlink.net/~radse/Page9.html • http://www.microsoft.com/asf/aboutasf.htm • http://intraware.netscape.com/ms/mktg/indaa/evaltch/ASF.html • http://www.microsoft.com/mind/0997/ netshow/netshow.htm • http://www.citi.pt/multimedia/vidigit.html • http://www.ibpi.g12.br/alunos_et/baries/dvd2.htm • http://www.ing.udec.cl/~bcontrer/asig/multi/parte6.html • http://lemontree.web2010.com/dvideo/index.html • http://www.crs4.it/~luigi/MPEG/hdtv.html • http://www.execpc.com/~cwhite/what.htm • http://members.aol.com/symbandgrl/ • http://www.chaves.com.br/TEXTSELF/multimed/mm0.htm • http://home.earthlink.net/~radse/Page9.html

Referências

Documentos relacionados

• Suponhamos que você esteja sendo contratado como consultor de rede para instalar uma rede em uma nova empresa ou em novo escritório de uma grande empresa. Quais seriam os fatores

• Retardo de transferência -> é a soma dos dois retardos o de acesso + o de transmissão, assim tendo o tempo total de criação e envio do pacote de informações.... Kleber

• Apesar disso, é certo dizer que ambos os padrões de montagem são completamente equivalentes em termos de desempenho, podendo ser usados tranquilamente em qualquer instalação,

2°) KERKHOFF, A.J., MORIARTY, P.E. The latitudinal species richness gradient in New World woody angiosperms is consistent with the tropical conservatism hypothesis. Avalie

Nas leituras de falhas efetuadas, foram obtidos códigos de anomalia por meio de dois diferentes protocolos de comunicação: o ISO 14230 KWP (2000) e o ISO 15765-4 CAN. A seguir, no

a) há um continuum de padrões de liderança dado pelo grau de autoridade utilizado pelo líder e o grau de liberdade disponível para os subordinados. c) para tarefas rotineiras

O objetivo deste trabalho foi avaliar épocas de colheita na produção de biomassa e no rendimento de óleo essencial de Piper aduncum L.. em Manaus

No 2T18, o segmento apresentou uma pequena redução da receita líquida (desconsiderando receita de longa distância) em relação ao 2T17 e um crescimento de 0,9% na comparação com