segunda-feira, 12 de dezembro de 2011

Cor e Modelos de Cor

Cor
A cor é uma percepção visual provocada pela acção de um feixe de fotons, sobre células especializadas da retina, que transmitem através de informação pré-processada no nervo óptico, impressões para o sistema nervoso.
Modelos de cor
Os modelos de cor foram criados de modo a uniformizar a forma como são especificadas as cores em formato digital, de modo a reproduzir com rigor a cor pretendida, quer seja pelo scanner, monitor ou Impressora.
Um modelo de cor é um sistema utilizado para organizar e definir cores conforme um conjunto de propriedades básicas que são reproduzíveis.

Modelo RGB ( Red Green Blue)
Como as cores RGB se combinam para criar o branco, também são denominadas cores aditivas.
Juntando todas as cores obtém-se o branco, ou seja, toda a luz é reflectida de volta ao olho. As cores aditivas são usadas em iluminação, vídeo e monitores.


Modelo CMYK (Cian, Magenta, Yellow e blacK)
As cores do monitor são reproduzidas numa impressora através dos pigmentos.
Os pigmentos criam as cores primárias azul, amarelo e vermelho, as quais, juntas, criam outras cores.
O método mais comum de reprodução de imagens coloridas em papel é pela combinação de pigmentos cyan, magenta, amarelo e preto.
O modelo de cor CMYK é chamado de modelo subtractivo de cores porque cria cores absorvendo luz.


Modelo YUV
O modelo YUV foi criado a par do desenvolvimento da transmissão de sinais de cor de televisão.
Este modelo baseado na luminância permite transmitir componentes de cor em menos tempo do que seria necessário se fosse utilizado o modelo RGB. Ao mesmo tempo, o modelo YUV permite transmitir imagens a preto e branco e imagens de cor de forma independente.

Modelo HSB

HSB (Hue, saturation, bright) em português Matriz, Saturação e brilho é um sistema de cores baseada nestes três componentes. É a cor reflectida de um objecto ou transmitida por meio dele, saturação: é a intensidade ou pureza da cor, representa a quantidade de cinza em proporção à matiz.
Brilho: é a luz ou sombra relativa da cor, normalmente medido como uma percentagem de o% (preto) a 100% (branco).


quinta-feira, 10 de novembro de 2011

Formato de texto


ASCII
A tabela de código ASCII (American Standard Code for Information Interchange) surgiu nos anos 60, devido a necessidade de criar um padrão que fosse utilizado por todos os computadores, tornando mais fácil a comunicação entre eles e a troca de dados.

A tabela ASCII utiliza conjuntos de 7 bits para representar 128 caracteres (2^7 caracteres), muitos deles adequados apenas à língua inglesa, por ter sido desenvolvida nos EUA.

A ISO ( International Standards Organization) adoptou o código ASCII como norma internacional, com a designação ISO 646, e ampliou-o, passando a incluir um conjunto de outros idiomas. Para conseguir esta ampliação tiveram de ser utilizados conjuntos de 8 bits 81byte), permitindo representar 256 caracteres (2^8 caracteres), ou seja, aos 128 caracteres iniciais foram acrescentados mais 128. No entanto, estes 256 caracteres continuavam a ser insuficientes para englobar todos os caracteres dos vários idiomas, sendo, por isso, necessário criar variantes regionais.
Para se obter um caracter ASCII num processador de texto, a partir do teclado, pressiona-se a tecla ALT e , simultaneamente, no teclado numérico, digita-se o código da tabela ASCII correspondente ao caracter pretendido.
Unicode
O Unicode é também um código que define todos os caracteres da maior parte das línguas do Mundo. Foi desenvolvido, em simultâneo, por um consórcio industrial, incluindo, entre outras companhias, a Apple, a Adobe, a Microsoft, a Hp, a IBM, a Grae/e, a SAP, a SUN e a Unisys. Permite utilizar conjuntos até 4 bytes (32 bits) para codificar os caracteres, sendo mais extenso que a tabela de código ASCII.





Os códigos disponibilizados pela Unicode permitem representar os caracteres utilizados pelos idiomas modernos e as formas clássicas de alguns idiomas. Codificam, entre outras, caracteres acentuados, símbolos de pontuação, símbolos técnicos e matemáticos e outros símbolos gráficos também conhecidos por dingbats (por exemplo, estrelas e outras formas).
Actualmente é promovido e desenvolvido pela Unicode Consortium, uma organização sem fins lucrativos que coordena o padrão, e que possui a meta de eventualmente substituir esquemas de codificação de caracteres existentes pelo Unicode e pelos esquemas padronizados de transformação Unicode (chamado Unicode Transformation Format, ou UTF). O seu desenvolvimento é feito em conjunto com a Organização Internacional para Padronização (ISO) e compartilha o repertório de caracteres com o ISO/IEC 10646: o Conjunto Universal de Caracteres (UCS). Ambos funcionam equivalentemente como codificadores de caracteres, mas o padrão Unicode fornece muito mais informação para implementadores, cobrindo em detalhes tópicos como ordenação alfabética e visualização.
O seu sucesso em unificar conjuntos de caracteres levou a um uso amplo e predominante na internacionalização e localização de programas de computador. O padrão foi implementado em várias tecnologias recentes, incluindo XML, Java e sistemas operacionais modernos.
Fontes
Uma fonte tipográfica, ou apenas fonte, é um conjunto de caracteres tipográficos com o mesmo desenho ou atributos e podendo também ter o mesmo tamanho.  As fontes podem representar letras, números ou símbolos e são armazenadas em ficheiros, contendo informações sobre as suas características físicas que determinam a forma como serão visualizadas no ecrã e a forma como serão impressas em papel. Cada fonte é identificada por um nome próprio e classificadas de acordo com a sua família. Sendo assim, uma família tipográfica é um conjunto de fontes que têm as mesmas características estilísticas elementares, no entanto podem ser representadas com variações de largura, altura, espessura e de outras características. 

       Existem duas grandes famílias, que são as famílias tipográficas com serifas e as famílias tipográficas sem serifas, que constituem o principal sistema de diferenciação de letras. A principal diferença entre elas é que as letras com serifas têm pequenos traços e prolongamentos no fim das hastes de cada letra, sendo mais usadas em blocos de texto, visto que as serifas tendem a guiar o olhar através do texto; enquanto as letras sem serifas não têm esses prolongamentos, motivo pelo qual são usadas em títulos e chamadas, visto que, ao contrário das famílias tipográficas com serifa, estas valorizam cada palavra individualmente, tendo assim um maior peso e presença para os olhos por parecerem mais "limpas". As duas famílias mais conhecidas que representam cada tipo são o Helvética e a Times.

Características das fontes
Um tipo de fonte descreve um conjunto de características, como o desenho, o tamanho, o espaçamento e a largura dos seus caracteres. Para além destas características, um tipo de fonte tem associados estilos como o itálico, o negrito e o negrito itálico.
Os tipos de fontes são utilizados para reproduzir texto no ecrã e na impressão.
O tamanho de uma fonte utiliza como unidade de medida o ponto (pt) que corresponde aproximadamente a 0,3528mm.
Existem dois tipos de fontes: bitmapped e escaladas. Estes dois tipos são semelhantes, respectivamente, em termos de concepção, às imagens bitmap e vectoriais.
Características das fontes:
• Desenho
• Tamanho
• Espaçamento e a largura dos caracteres

Tem associado:
Estilo itálico, negrito e negrito itálico
 
Tipos de Letra
       Times New Roman- como referido anteriormente, é uma família tipográfica serifada que foi criada em 1931 e, actualmente, é um dos tipos de letra mais conhecidos e usados muldialmente, pois possui uma excelente legibilidade, permitindo a sua utilização em todo o tipo de documentos. O seu criador original foi Victor Lardent, que foi aperfeiçoando os seus desenhos durante um longo periodo de tempo até chegar ao resultado final que hoje conhecemos, e possui esse nome, pois foi criada para o uso do jornal "Times" e é uma releitura das antigas tipografias clássicas, "New Roman".
 
       Garamond- tal com a "Times New Roman", a Garamond também é um dos tipos de letra mais conhecidos e usados mundialmente. Foi criada em 1530 pelo francês Claude Garamond, que deu assim origem ao nome do tipo de letra. Actualmente, é alvo de várias derivadas, no entanto, as famílias tipográficas inspiradas na Garamond diferem da original em vários aspectos ligados ás suas características. A maior parte destas versões encontram-se disponíveis para computadores digitais e, tal como a "Times", é muito utilizado na composição de texto corrido por possuir uma boa legibilidade.
       Arial- como já analisamos, é uma família tipográfica sem serifa que foi criada em 1982 por Robin Nicholas e Patrícia Saunders no Reino Unido. É uma fonte padrão, ou seja, possui um conjunto de fontes derivadas da Arial Regular, ou apenas "Arial". A Arial é alvo de várias críticas entre os designers gráficos, visto que surgiu para concorrer com a fonte Helvetica, considerando-na assim como uma "cópia inferior da Helvetica", no entanto, elas são apenas semelhantes, pois apesar de ser inspirada no desenho da mesma fonte que serviu de inspiração para a Helvetica (Akzidenz Grotesk), a Arial possui alterações quanto á sua forma e espaçamento entre as letras, tornando-a mais legível nos monitores em diversas resoluções.

Fontes bitmapped
As fontes bitmapped são guardadas como uma matriz de pixeís e, por conseguinte, ao serem ampliadas, perdem a qualidade. São concebidas com uma resolução e um tamanho especificos para uma impressora especifica, não podendo ser escaladas. As cinco fontes bitmapped são: courier, MS Sans Serif, MS Serif, Small e Symbol.
Fontes escaladas
Fontes type 1
As fontes Type 1 (ou fontes PostScript) contêm caracteres definidos no código PostScript. Foi a Adobe quem desenvolveu e produziu este tipo de fontes e também distribui muitos caracteres Type 1.
Estas fontes são produzidas para trabalhar, por exemplo, com impressoras PostScript, em que o detalhe obtido cumpre os padrões de qualidade estabelecidos na indústria tipográfica.
Fontes true type
As fontes True Type foram criadas pela Apple para competir com as fontes Type 1 da Apple em PostScript. Mais tarde, a Microsoft aliou-se à Apple e estas fontes foram incluídas a partir do Windows 3.1 e do Mac OS 7.
Estas fontes contêm o seu próprio algoritmo para converter as linhas de contorno em bitmaps. São dimensionáveis para qualquer altura e podem ser impressas exactamente como aparecem no ecrã.
Como estas fontes não são compatíveis com o código PostScript, é necessário convertê-las em fontes Type 1, mas a impressão é lenta e com erros. Por isso, este tipo de fontes não é muito utilizado em impressoras PostScript.
Estas fontes são guardadas, no WIndows, num ficheiro com a extensão .ttf (True Type File).
Fontes open type
As fontes OpenType são um novo formato desenvolvido pela Adobe e Microsft. O ficheiro OpenType é uma extensão do formato TrueType que suporta as fontes Type 1 e o código PostScript.
As fontes OpenType que contêm o esquema Type 1 são guardadas com a extensão .otf, enquanto que aquelas que suportam o formato TrueType apresentam a extensão .otf, .ttf ou .ttc.
Estas fontes incluem um vasto conjunto de caracteres e traços para fornecer um suporte linguístico mais rico e avançado controlo tipográfico. Todas as fontes OpenType podem ser instaladas e usadas juntamente com as fontes Type 1 (PostScript) e TrueType.

quinta-feira, 20 de outubro de 2011

Mutimédia


Multimédia designa a combinação, controlada por computador, de texto, gráficos, imagens, vídeo, áudio, animação e qualquer outro meio, pelo qual a informação possa ser representada, armazenada, transmitida e processada sob a forma digital, em que existe pelo menos um tipo de média estático (texto, gráficos ou imagens) e um tipo de média dinâmico (vídeo, áudio ou animação).

Tipos de media:

Estáticos: agrupam elementos de informação independentes do tempo, alterando apenas a sua dimensão no espaço, tais como, por exemplo, texto e gráficos.

Dinâmicos: agrupam elementos de informação dependentes do tempo, tais como, por exemplo, o áudio, o vídeo e a animação. Nestes casos, uma alteração, no tempo, da
ordem de apresentação dos conteúdos conduz a alterações na informação associada ao respectivo tipo de media dinâmico (áudio, vídeo e animação).


Origem dos media:

Capturados: São aqueles que resultam de uma recolha do exterior para o computador, através da utilização de hardware específico, como, por exemplo, scanners, câmaras digitais e microfones, e de software específico.

Sintetizados: São aqueles que são produzidos pelo próprio computador, através da utilização de hardware e de software específico.


Modos de divulgação de conteúdos multimédia:

Online: Divulgação online significa disponibilidade imediata dos conteúdos multimédia.
              Pode ser efectuada através de:
  - Rede local;
  - Conjunto de redes (World Wide Web);
  - Monitores ligados a computadores que não estão ligados em rede, cujos dados           estão armazenados em disco.

Offline: A divulgação offline de conteúdos multimédia é efectuada através da utilização de suportes de armazenamento, na maioria das vezes do tipo digital. Neste caso, os suportes de armazenamento mais utilizados são do tipo óptico, CD e DVD.

Linearidade

A linearidade multimédia pode ser entendida como o facto do utilizador apenas receber a informação que é transmitida pelo computador, não podendo alterá-la nem decidir como a acção se desenrola.
Esta é a forma de aprendizagem mais utilizada, o professor ensina e o aluno limita-se a recolher a informação.

Vantagens:
A linearidade é muito mais objectiva, dando ao utilizador apenas o que ele precisa. Desta forma o utilizador recebe a informação desejada de uma forma mais rápida, não perdendo tempo com periféricos.
Desvantagens:
A linearidade torna-se muito mais monótona para o utilizador do que a não linearidade. Pode também ser mais difícil para o utilizador aprender a utilizar a linearidade pois não tendo interacção com a máquina não lhe é tão fácil aprender, estando limitado a assistir

Não-Linearidade

Existe não-linearidade multimédia quando o utilizador não está limitado a receber as informações que o computador lhe envia, pode interagir com ele e decidir o desenrolar da apresentação.
Vantagens:
A não-linearidade torna a aprendizagem mais fácil para o utilizador, pois ele interage com o computador e com o que está a prender. Resumidamente “é a fazer que se aprende”.
Desvantagens:
Pode ser mais confuso para o utilizador interagir num ambiente não-linear, podendo “perder-se” no sistema, devido a ser ele que escolhe um de vários caminhos que tem à sua disposição.

 Produtos Multimédia Baseados em Páginas

Os tipos de media estáticos ou baseados em páginas são, portanto, constituídos por elementos de informação independentes do tempo, que apenas variam na sua dimensão espacial, tais como parágrafos de texto, modelos gráficos ou conjuntos de pixeis. Estes elementos podem ser apresentados em qualquer sequência ou em instantes de tempo arbitrários sem perderem o seu significado. Para estes conteúdos, o tempo não faz parte da sua semântica, sendo a sua localização espacial o aspecto que importa considerar.

Produtos Multimédia Baseados no Tempo


Por outro lado, os tipos de media dinâmicos ou baseados no tempo incluem os tipos de informação multimédia cuja apresentação exige uma reprodução contínua ao longo do tempo. Por outras palavras, o tempo faz parte do próprio conteúdo. Se a informação temporal se alterar, isto é, se a sequência dos elementos que constituem o conteúdo dinâmico for modificada, o significado do conteúdo pertencente a um dos tipos de media dinâmicos também se altera. Em suma, o tempo faz parte da sua semântica. Quando se apresenta uma sucessão de imagens ou de modelos gráficos no ecrã, cria-se a impressão de movimento. Por isso, também é comum identificar os tipos de media dinâmicos utilizando, respectivamente, as designações de imagens em movimento para o vídeo digital e gráficos em movimento para a animação. Um exemplo disso é a banda-desenhada, que apresenta ao longo do tempo sucessivas imagens no qual o seu produto final será, neste caso, uma animação. Outros exemplos: Programas de TV, cinema e clips de vídeo.


quarta-feira, 19 de outubro de 2011

Biometria e robotica

O que é biometria ?

O termo biometria significa medição biológica, ou seja, é o estudo das características físicas e comportamentais de cada pessoa. O princípio básico desta técnica para identificação é o corpo. Os métodos mais utilizados nesta tecnica são a identificação da retina e das impressões digitais, pois cada pessoa é única.
As técnicas de reconhecimento por meio das características das pessoas já eram utilizadas na China no ano 800 d.C, quando comerciantes confirmavam a identidade dos seus clientes por meio das impressões digitais em tábuas de barro.
Como funciona?
Para que um sistema biométrico funcione sem problemas alguns equipamentos são necessários como os scanners ou sensores, e computadores com a capacidade de reconhecimento de imagens.
Em teoria, o processo de análise biométrica é bem simples. Quando o scanner é acionado, a principal função dele é obter uma imagem nítida e de alta resolução do objeto em estudo: impressões digitais da mão, íris, retina, expressões faciais.
O passo seguinte é colocar a imagem captada à disposição do software biométrico, o qual analisa e extrai as características mais relevantes da figura. Uma foto da mão, por exemplo, o que interessa são as linhas que dão forma às digitais.
Uma vez com as características extraídas, a última etapa consiste na comparação entre a imagem obtida e as fotos presentes no banco de dados. Esta verificação é feita com o auxílio de diversos algoritmos.


 Robótica

Robótica é um ramo da informática que engloba computadores, robôs e computação, que trata de sistemas compostos por partes mecânicas automáticas e controladas por circuitos integrados, tornando sistemas mecânicos motorizados, controlados manualmente ou automaticamente por circuitos eléctricos. As máquinas, pode dizer-se que são vivas, mas ao mesmo tempo são uma imitação da vida, não passam de fios unidos e mecanismos, isso tudo junto concebe um robô. Cada vez mais as pessoas utilizam os robôs para realizar as suas tarefas. Em breve, tudo poderá ser controlado por robôs. Os robôs são apenas máquinas: não sonham nem sentem e muito menos ficam cansados. Esta tecnologia, hoje adaptada por muitas fábricas e indústrias, tem obtido de um modo geral, êxito em questões levantadas sobre a redução de custos, aumento de produtividade e os vários problemas de trabalho com funcionários.
A ideia de se construir robôs começou a tomar força no início do século XX com a necessidade de aumentar a produtividade e melhorar a qualidade dos produtos. É nesta época que o robô industrial encontrou as suas primeiras aplicações. O pai da robótica industrial foi George Devol. Devido aos inúmeros recursos que os sistemas de microcomputadores nos oferece, a robótica atravessa uma época de contínuo crescimento que permitirá, em um curto espaço de tempo, o desenvolvimento de robôs inteligentes fazendo assim a ficção do homem antigo se tornar a realidade do homem actual.

A robótica tem possibilitado às empresas redução de custos com os trabalhadores e um significativo aumento na produção. O país que mais tem investido na robotização das actividades industriais é o Japão, um exemplo disso observa-se na Toyota.
Porém há um ponto negativo nisso tudo. Ao mesmo tempo que a robótica beneficia as empresas diminuindo gastos e agilizando processos, ele cria o desemprego estrutural, pela substituição do trabalho humano por máquinas.


quinta-feira, 13 de outubro de 2011

Inteligência artificial.

Bom dia.
Esta semana tivemos a abordar vários temas, sendo um deles a inteligência artificial, no qual tivemos de fazer uma pesquisa sobre o seu conceito, as suas áreas de aplicação e os sistemas periciais. Deixando então esse mesmo trabalho de seguida para poderem ver e aprender um pouco sobre este mesmo tema.

A Inteligência Artificial (IA) é uma área de pesquisa da ciência da computação e Engenharia da Computação, dedicada a buscar métodos ou dispositivos computacionais que possuam ou simulem a capacidade racional de resolver problemas, pensar ou, de forma ampla, ser inteligente.
A construção de máquinas inteligentes interessa à humanidade há muito tempo, havendo na história um registo significante de autómatos mecânicos (reais) e personagens místicos, como Frankenstein, que demonstram um sentimento ambíguo do homem, composto de fascínio e de medo, em relação à Inteligência Artificial.
Apenas recentemente, com o surgimento do computador moderno, é que a inteligência artificial ganhou meios e massa crítica para se estabelecer como ciência integral, com problemáticas e metodologias próprias. Desde então, o seu desenvolvimento tem extrapolado os clássicos programas de xadrez ou de conversão e tem-se envolvido áreas como visão computacional, análise e síntese da voz, lógica difusa, redes neurais artificiais e muitas outras.
Inicialmente a IA visava reproduzir o pensamento humano. A Inteligência Artificial abraçou a ideia de reproduzir faculdades humanas como criatividade, auto-aperfeiçoamento e uso da linguagem. Porém, o conceito de inteligência artificial é bastante difícil de se definir. Por essa razão, Inteligência Artificial foi (e continua a ser) uma noção que dispõem de múltiplas interpretações, não raro conflituantes ou circulares.


Áreas de aplicação
o   Planeamento automatizado: a uma centena de milhões de quilómetros da Terra, o programa “Remote Agent” da NASA tornou-se o primeiro programa de planeamento automatizado (autónomo) de bordo a controlar o escalonamento de operações de uma nave espacial. O “Remote Agent” gerou planos de metas de alto nível específicas a partir do solo e monitorou a operação da nave espacial à medida que os planos eram executados efectuando a detecção, o diagnóstico e a recuperação de problemas conforme eles ocorriam.

o   Robótica: Muitos cirurgiões agora utilizam robôs assistentes em microcirurgias. O HipNav é um sistema que emprega técnicas de visão computacional para criar um modelo tridimensional da anatomia interna de um paciente, e depois utiliza controlo robótico para orientar a inserção de uma prótese de substituição do quadril.

o   Reconhecimento de linguagem e resolução de problemas: O PROVERB é um programa de computador que resolve quebra-cabeças de palavras cruzadas melhor que a maioria dos seres humanos, utilizando restrições sobre possíveis preenchimentos de palavras, um grande banco de dados de quebra-cabeças anteriores e uma variedade fonte de informações que incluem dicionários e bancos de dados online, como uma lista de filmes e dos actores que participam deles.

o   Lógica incerta, uma técnica para raciocinar dentro de incertezas, tem sido amplamente usada em sistemas de controlos industriais.

o   Sistemas especialistas vêm sendo usados a uma certa escala industrial.

o   Sistemas tradutores.

o   Redes Neurais vêm sendo usadas em uma larga variedade de tarefas, de sistemas de detecção de intrusos a jogos de computadores.

o   Sistemas de reconhecimento óptico de caracteres (OCR) podem traduzir letra escrita de forma arbitrária em texto.


o   Sistemas de álgebra computacional, tais como Matemática, é um bom exemplo de aplicações de IA na solução de problemas algébricos.

o   Sistemas com Visão computacional são usados em muitas aplicações industriais.

o   Aplicações utilizando Vida Artificial são utilizados na indústria de entretenimento e no desenvolvimento da Computação Gráfica


Sistemas Periciais
Os especialistas humanos são capazes de atingir um alto desempenho na medida em conhecem muito bem as suas áreas de especialização.

Um Sistema Pericial é um programa de computador que utiliza conhecimento específico do domínio de um problema e emula a metodologia e desempenho de um especialista no domínio desse problema.

O conhecimento inerente a um Sistema Pericial é um ponto-chave na sua construção e é normalmente definido por engenheiros do conhecimento ou programadores.

Para tal são consultados peritos no domínio do problema e tenta-se codificar numa linguagem formal todo o conhecimento que estes adquiriam ao longo da sua experiência nomeadamente heurísticas e truques.

Os Sistemas Periciais não imitam a estrutura da mente humana, nem os mecanismos da inteligência.

São programas práticos que usam estratégias heurísticas desenvolvidas por humanos na resolução de classes específicas de problemas.

São uma classe de programas na área da Inteligência Artificial e têm contribuído para o sucesso desta área através dos produtos comerciais desenvolvidos

quinta-feira, 6 de outubro de 2011

Iniciação da matéria.

Ao longo desta semana fomos aprendendo alguns conceitos relacionados com a disciplina de aplicações informáticas que são eles : interface grafica, interactividade, realidade virtual e dispositivos utilizados na realidade virtual, também conhecidos como widgets.
São conceitos importantes pois dão-nos a conhecer como o utilizador interage com o sistema.
Com a realidade virtual faz-nos acreditar que estamos no mundo real dentro do sistema.
São conceitos com os quais interagimos todos os dias, mas não temos essa precepção.

segunda-feira, 26 de setembro de 2011

Sejam bem vindos ao nosso blog    : )
Este blog tem como objectivo dar a conhecer todas as actividades e todo o nosso trabalho desenvolvido na disciplina de Aplicações informáticas.
Espero que gostem e acompanhem-nos.