Linha de pesquisa

Pessoal,

É importante que cada um escolha uma linha de pesquisa para desenvolver as próximas atividades da disciplina. Para isso, e para que a escolha seja baseada tanto no gosto pessoal quanto em argumentos objetivos (afinal, é uma disciplina de metodologia científica), a próxima tarefa consiste em fazer um levantamento bibliográfico nos periódicos
* Science
* Nature
* ACM Computing Surveys
* Scientific American
e escolher um artigo emblemático da sua área de interesse. Feita essa escolha, faça um resumo contendo:
+ Referência completa (título, autor, periódico, volume, páginas, ano)
+ O que chamou a sua atenção do assunto e como ele se relaciona com os conteúdos do seu curso
+ Um breve resumo do artigo (vinte a trinta linhas no formato do blog)
+ Possíveis linhas de pesquisa que lhe interessam

Este trabalho deverá estar postado no blog até as 16:00 desta sexta-feira 27/3/09.

Alejandro

48 comentários:

Anônimo disse...
27 de março de 2009 às 01:41
Este comentário foi removido pelo autor.
Anônimo disse...
27 de março de 2009 às 01:48
Este comentário foi removido pelo autor.
Anônimo disse...
27 de março de 2009 às 01:56

Título: Operational Methods in Theoretical Computer Science
Autor: Corrado Priami
Periódico: ACM Computing Surveys (CSUR)
Volume: 31
Páginas: 5 (no arquivo PDF)
Ano: 1999

O que chamou a atenção e o que se relaciona com o curso: O que me chamou atenção e o que sempre me chama são os métodos de como funciona cada parte da computação. Se relaciona com o curso porque eu, obviamente, conforme mencionado, estudo cada parte da computação e sua ciência.

Breve resumo do artigo: O homem sempre se preocupou em se comunicar com a máquina de um jeito muito simples, e pra isso vem trabalhando criando formas de entender melhor o funcionamento das máquinas em geral.
Para isso, criou sistemas de linguagem os quais são capazes de dizer por quais estados as máquinas passam em determinados momentos de funcionalidade. Cada linguagem tem sua respectiva semântica (do grego σημαντικός, derivado de sema, sinal; refere-se ao estudo do significado, em todos os sentidos do termo), algo muito mencionado no artigo. Cada linguagem não possui somente sua semântica como fator importante, ela também contém sua sintaxe, que analisa uma seqüência de entrada para determinar sua estrutura gramatical. Daí surgiram as linguagens de programação, a lógica voltada para computação, a programação orientada a objetos etc.
Também foram criados métodos de análise de programas, cujo objetivo é achar erros de compilação, os quais ajudam no entendimento da linguagem e no desenvolvimento de outros trabalhos e de softwares mais complexos.
Outros tipos de métodos que vemos na teoria da ciência da computação são aqueles para evitar o excesso de espaço para representar sistemas ou quando uma máquina pode ser representada por um conjunto infinito de estados.
O objetivo do homem hoje é criar modelos cada vez mais simples objetivando a evolução da computação como um todo, pois, quanto mais o homem entende a máquina, mais ele a faz crescer e se tornar bem mais eficiente.


Possíveis Linhas de pesquisa que me interessam: esses tipos de assunto que acabei de postar, artigo sobre games e de algoritmos eficientes.

João Paulo disse...
27 de março de 2009 às 08:32
Este comentário foi removido pelo autor.
Gabriella Barros disse...
27 de março de 2009 às 08:46
Este comentário foi removido pelo autor.
Heytor Anizio disse...
27 de março de 2009 às 08:49
Este comentário foi removido pelo autor.
JEAN MELO disse...
27 de março de 2009 às 08:57
Este comentário foi removido pelo autor.
Gabriella Barros disse...
27 de março de 2009 às 09:01
Este comentário foi removido pelo autor.
Gabriella Barros disse...
27 de março de 2009 às 09:04

Referências
Título: "The state of the art in game AI standardisation".
Autores: Billy Yue e Penny de-Byl.
Periódico: ACM Computer Surveys (CSUR).
Volume 223.
Páginas: 6, no pdf. (41 - 46)
Mês/Ano de Publicação: Dezembro/2006

Resumo do artigo:

O artigo tem como objetivo uma apresentação do trabalho dos grupos que integram a AIISC (do inglês Artificial Intelligence Interface Standards Committee, ou Comitê de Padrões de Interface de Inteligência Artificial), trazendo os pontos importantes de suas respectivas pesquisas para o desenvolvimento voltado aos jogos de computador e a padronização de uma Interface de Programação de Aplicativos (ou API) voltada para Inteligência Artificial (AI) de jogos. Isso visa uma menor preocupação das empresas com relação a tarefas menores, priorizando atividades mais importantes.
Como as necessidades dos projetistas de jogos variam, a base dessa API padrão tem que ser abrangente o suficiente para suprir qualquer desejo. Foi declarado em 2005 que a base seria C++, mas permitiria implantação de bibliotecas em C e utilização de estruturas XML.
O artigo trata dos diferentes tipos de interface requisitados, processos que ela teria de ser capaz de executar (como, por exemplo, a melhor escolha de um caminho até certo local, ou desviar de um objeto), e do atual progresso que a AIISC fez. Diz, ainda, que tal progresso está dividido. Enquanto um padrão começa a se formar em certas áreas, como interface de ação orientada a uma meta e do mundo do jogo, ainda falta muita pesquisa, especialmente no desenvolvimento de máquinas de estados finitos e sistemas de movimentação baseado no ambiente, para a implementação da AI de um jogo.

O que mais me chamou a atenção no artigo foi o fator da pesquisa para a implementação de uma interface "casada" com a inteligência artificial, que permite melhorar o desenvolvimento de jogos eletrônicos. Ainda mais, ambas as áreas de jogos e inteligência artificial me interessam bastante, e se relacionam com Ciência da Computação desde a matriz da pesquisa, até seu progresso em prol de outros campos de aplicação.

Possíveis linhas de pesquisa: Inteligência Artificial, desenvolvimento de/voltado para jogos, Interface Usuário-Máquina e de Programação de Aplicativos.
_____________________________________

Currículo Lattes:http://lattes.cnpq.br/4179815655707887

JEAN MELO disse...
27 de março de 2009 às 09:09
Este comentário foi removido pelo autor.
Juscyllan S Queiroz disse...
27 de março de 2009 às 09:14
Este comentário foi removido pelo autor.
Juscyllan S Queiroz disse...
27 de março de 2009 às 09:17

Research in music and artificial intelligence
Author: Curtis Roads (Massachusetts Institute of Technology, Cambridge)
Source: ACM Computing Surveys (CSUR)
Volume 17, Issue 2 (June 1985)
Pages: 163 - 190
Year of Publication: 1985

O que me chamou atenção é que é muito interessante ver até onde a tecnologia pode ajudar a humanidade a viver melhor, até mesmo auxiliando músicos a fazerem trabalhos cada vez melhores, seja usando sintetizadores, eu até mesmo um auxílio às composições.

Resumo: A inteligência artificial é usada de diversas formas, e não é diferente com a música. Este artigo mostra algumas aplicações das técnicas da IA de quatro formas:
- "The Intelligent Composer's Assistant", que é uma ferramenta que entende bastante de música, entre acordes, melodias etc. e foi criado para auxiliar o músico a fazer frases e melodias mais criativas, depois de pegar um bom material musical, o compositor pode manipulá-lo, rearranjar, deletar e acrescentar novos objetos musicais (entonação, escalas etc.).
- "Responsive Instruments", o computador consegue acompanhar o tom da melodia tocada e responde de acordo com as regras previamente dadas. Funciona como um regente em uma orquestra, enquanto o músico se preocupa com o tom, volume, timbre etc., o regente se preocupa com coisas como o andamento da música, o tempo, balanço das vozes e dos instrumentos no geral.
- "Analysis and Generative Modeling of Music" se preocupa em *gerar* um programa que produz uma pontuação de acordo com um idioma musical de acordo com pelo menos três pontos: *verificar se está de acordo com as teoria musical; *produzir um objeto esteticamente interessante (originalidade); *divertimento. Para uma *análise* dessa pontuação pelo computador, a pontuação deve ser codificada e o programa deve estar apto a reconhecer alguns padrões musicais.
- "Recognition and Understanding of Musical Sound" é uma forma de 'ouvir' a música e entender a música de acordo com um conhecimento musical que já estava armazenado. Algumas aplicações: *transcrição automática de uma música; *editores inteligentes para uma música.

Linhas de pesquisa: Música (artes), Inteligência Artificial, interação homem-máquina

JEAN MELO disse...
27 de março de 2009 às 10:55

Título: The Future of Human-Computer Interaction
Autor: Jonh Canny
Periódico: ACM Computing Surveys (CSUR)
Volume: 4
Páginas: 9 (no arquivo PDF)
Ano: 2006

Motivo da escolha: Devido a proporção de crescimento nesta área, resolvi pesquisar sobre esse campo promissor que querendo ou não, envolve-nos a refletir e a interagir com mesmo. O futuro da interação humano-computador é incerto, mas existem grandes especulações que merecem a nossa atenção.
Sem falar da ligação direta que existe com o curso de ciência da computação. Porque, logicamente, é uma área muito forte da computação.

Resumo

A Interação Humano-Computador (IHC) é uma área relativa ao planejamento, avaliação e implementação de sistemas e interfaces que ajuda o usuário a solucionar um devido problema. Essa área está envolvida com a utilização interativa entre qualquer equipamento eletrônico e um ser humano. Estudos avaliam fatores humanos e novas tecnologias para criar novos métodos e técnicas capazes de projetar interfaces universais e centradas nas necessidades do utilizador.
As novas formas de interação com o computador são hoje um dos campos mais atraentes da computação atual. Com um toque de “ficção científica”, a tendência para o futuro é de que novas tecnologias substituam o mouse e o teclado. Atualmente, já acompanhamos o crescimento de artifícios como as telas sensíveis ao toque, biosensores e outros. Esse é o caso do famoso Iphone que virou mania no mundo inteiro.
De acordo com o artigo, o futuro dessa interação vai ser surpreendente porque se espera computadores sem mouse e teclado, telefones que dão informações eficientes em tempo real, a web semântica, a capacidade dos computadores de perceber uma determinada mensagem (voz, visão e força mental).
Agora, imaginemos desfrutando de todas essas tecnologias, será fantástico se isso acontecer realmente.

Linhas de pesquisas: Redes de computadores, Engenharia de Software, Interação Humano-Computador.

Sérgio Oliveira disse...
27 de março de 2009 às 11:13
Este comentário foi removido pelo autor.
Sérgio Oliveira disse...
27 de março de 2009 às 11:17

Referência:
Video Games: A Route to Large-Scale STEM Education?
Merrilea J. Mayo
Science 2 January 2009:
Vol. 323. no. 5910, pag. 79 – 82(no periodico)

O que mais chamou minha atenção foi a proposta de um novo método de ensino muito mais abrangente e interessante para os futuros alunos de Exatas. Com a globalização, o barateamento da tecnologia é uma conseqüência inadiável portanto imaginar no futuro escolas e faculdades públicas e privadas com notebooks e microcomputadores não é tão difícil quanto hoje em dia. Então, por que não começar a pensar em meios frutíferos de utilizar essa tecnologia? É sobre um desses meios que o artigo abaixo discute.

Resumo:

Entre 2000 e 2005 uma média de 450 mil estudantes norte americanos se formaram, por ano, nas chamadas matérias “STEM” (Science Technology Enginnering and Mathematics) enquanto jogos como World of War Craft acumulam um total de 2.5 milhões de jogadores norte americanos inscritos. E ainda, o ensino fundamental e médio americano já juntou 4 milhões de inscritos só nesse jogo on-line. Esses números mostram claramente que a razão entre o número dos jovens que se inscrevem em jogos eletrônicos e dos que se formam é muito grande. Então, não seria uma medida inteligente fazer uma ponte que une o ensino básico atual e um ensino que utiliza a tecnologia dos games como uma ferramenta de aprendizado?
Várias vantagens são identificadas nessa combinação de métodos. Diferentemente das aulas normais, os jogos podem ser adaptadas ao ritmo do aluno. Nos jogos também são apresentadas informações em múltiplos modos visuais e auditivos, que da uma maior interação gerando assim uma maior concentração nos alunos. E tudo isso reforça a idéia de que os jogos não só atingem quantidade como podem ser exemplos de educação de qualidade.


O desenvolvimento de jogos virtuais com conteúdo educacional, e implementação dessa tecnologia nas escolas e universidades e uma melhoria na qualidade do ensino público são alguns dos assuntos que me interessam.

Adolfo Brunno disse...
27 de março de 2009 às 11:22
Este comentário foi removido pelo autor.
Heytor Anizio disse...
27 de março de 2009 às 11:27
Este comentário foi removido pelo autor.
Henrique dos Santos Gomes disse...
27 de março de 2009 às 11:38

NEUROTECHNOLOGY: Engineering a Fix for Broken Nervous Systems
Autor: Greg Miller
Periódico: Science, 7 November 2008
Volume 322 no. 5903, p. 847

Minha escolha pelo tema se deu devido a importância, que acredito que tenha a computação, para criação e evolução da tecnologia usada nesses “protótipos” que tem tanto a ajudar.

Resumo: A neurotecnologia, como o seu nome propõe, é a união da tecnologia com a neurologia
e faz referência a Nanociência, Biotecnologia, Tecnologias da Informação e, Ciências cognitivas.
“Estamos numa nova era da neurotecnologia” disseram os pesquisadores da Brown University neuroscientist John Donoghue após uma reunião realizada para debater em que estado estão na evolução da arte da prótese e implantes neurais implantados cirurgicamente a fim de devolver a visão aos cegos, audição aos surdos e circulação para as pessoas com paralisia. A idéia de curar o sistema nervoso quando esse não é capaz de fazer isso por si, só é o que impulsiona dando entusiasmo e esperança para os pesquisadores e principalmente as pessoas que sofrem desse “mal”.
De acordo com as “experiências” realizadas com um jovem Mateus Nagel, que foi vitima de um ataque com faca a qual atingiu sua medula o paralisando, esta em processo de evolução. Foi implantado em seu cérebro um chip com tamanho de 4x4 milímetros numa parte do cérebro responsável pelo movimentos dos braços e com isso, Nagel foi capaz de movimentar os dedos e um cursor responsável por operar um programa de e-mails
Outros trés doentes passaram pela mesma cirurgia de implante do chip, e todos eles tem sido capazes de controlar o cursor com o pensamento, porém, em alguns casos o movimento é lento e hesitante. No entanto, o cientista da computação Michael Black tem desenvolvido algoritmos para reduzir essa hesitação.
Foi citado também nessa reunião próteses para pacientes com problemas auditivos ou de visão. Uma caso de audição foi descrito usando implantes cocleares e o resultado é que foi ouvido algo parecido com água fervente, demonstrando que a estimulação elétrica pode produzir sensação de som. Mas hoje é feita diversas cirurgias desse tipo e tem produzido bons resultados. No caso dos problemas com a visão, são implantadas pequenas câmeras ligadas através de eletrodos ligadas a retina que transmitem os sinais a esta, mas ainda é difícil saber o que eles são capazes de ver.

Através desse artigo podemos ver o quão grande são os esforços de grandes pesquisadores em chegar a um resultado favorável para aqueles que necessitam e esperam sempre uma resposta positiva.

Adolfo Brunno disse...
27 de março de 2009 às 11:39
Este comentário foi removido pelo autor.
Adolfo Brunno disse...
27 de março de 2009 às 11:42

Bioinfotmatics - An Introduction for Computer Scientists

Author: Jacques Cohen (Brandeis University, Waltham, MA)
Source: ACM Computing Surveys (CSUR)
Volume 36 , Issue 2 (June 2004)
Pages: 122 - 158
Year of Publication: 2004


Motivação:

O principal motivo pelo qual fiz a escolha de trabalhar em cima desta área (bioinformática) foi porque faço um curso tecnólogo de Análise de Sistemas em Saúde, que é completamente voltado para este campo. Além disso, a bioinformática é uma das áreas que mais avança no momento. Logo, decidi conciliar o útil ao agradável.

Resumo:

O artigo de Jacques Cohen tem como objetivo introduzir cientístas da computação no campo da bioinformática (como o próprio título deixa bem claro). Esta área surgiu da necessidade dos biólogos de utilizar e conseguir interpretar um amontoado de dados provenientes das pesquisas do genoma humano. O artigo mostra algumas aplicações computacionais para auxiliar nesta pesquisa, tais como alguns algorítmos para comparar sequências de DNAs (BLAST), simulações de como as células de determinado organismo se comportam, ou ainda a utilização da teoria dos autômatos para conhecer a estrutura do RNA. Além disso, o artigo trata também do lado biológico, mostrando alguns conceitos básicos de sequenciamento DNA e RNA, de aminoácidos, entre outros. Aborda também uma das principais ferramentas para o sequenciamento de DNA: o GenBank (banco de dados atualizado diariamente com o objetivo de mapear todos os genes descobertos por cientístas de todo o mundo).
Para cientístas da computação que não conhecem bem a área da biologia celular, o artigo traz um apêndice iniciativo com alguns conceitos fundamentais para o entendimento de como a célula funciona.
A bioinformática é a principal ferramenta para o desenvolvimento do projeto genoma, portanto, o futuro dos estudos da biologia está em nossas mãos.
Para quem tem interesse no ramo da bioinformática e da biologia computacional, este artigo é de leitura obrigatória.

Linhas de Pesquisa: Bioinformática, Biologia Computacional e Sequenciamento de DNA.

Heytor Anizio disse...
27 de março de 2009 às 11:49

Título: I, Clone
Autor: Michael Shermer
Periódico: Scientific American
Volume 288
Paginas: 2 (no pdf)
Ano: 2003

*Chamou-me a atenção o fato da comparação da robótica com a clonagem; ambas suas 3 Leis são parecidas entre si, porém a robótica é encarada como um ramo normal na ciência e a genética é encarada como algo que vai contra os valores de nossa sociedade.
*Tal conteúdo relaciona-se com meu curso na área da robótica e, principalmente da ética, uma vez que em pesquisas científicas sempre encontramos dilemas que requerem uma solução pacífica para o progresso e harmonia de nossa sociedade.

RESUMO DO ARTIGO
O artigo fala da discussão entre o progresso da ciência e a ética que envolve nossa sociedade. Aborda a clonagem de seres humanos e faz uma comparação entre as Três Leis da Robótica e as Três Leis da Clonagem. Expressa a idéia de que a clonagem pode vir a beneficiar o desenvolvimento de nossa espécie, isso se a pesquisa e a experimentação nessa área forem liberadas. Apresenta argumentos éticos que explicam a má aceitação da clonagem no meio social e, em contrapartida, apresenta contra- -argumentos a favor da clonagem. Mostra que os ramos científico, social, religioso, ético, entre outros estão envolvidos na questão da clonagem de seres humanos e que para haver uma liberação nos estudos deve-se chegar a um consenso geral entre os ramos e à uma prova concreta por parte dos cientistas de que a clonagem não agride os direitos humanos, nem a dignidade do clone humano, nem os valores religiosos e, por fim, o conceito de vida. Explica que um clone nada mais é do que um gêmeo idêntico do clonado, que é concebido em um espaço diferente e, mesmo que alguém fosse clonado, eles não seriam exatamente idênticos pois a natureza modifica os genes do ser humano no seu processo de formação; que clonagem só não é aceita nos dias de hoje porque a população não está acostumada com a idéia de copiar pessoas, e que isso não fere nenhum protocolo social ou religioso, pois outras pesquisas realizadas nessa área anteriormente foram bem-sucedidas após tempos de experimentação e foram igualmente bombardeadas com críticas, porém já são amplamente aceitas pelo mundo pois mostrou-se que não agride os direitos humanos e nem os conceitos religiosos e éticos.

POSSÍVEIS LINHAS DE PESQUISAS QUE ME INTERESSAM
Como a ciência tem que lidar com questões éticas e morais para não ultrapassar os limites
do humanamente aceitável e cientificamente possível.

Vitor Rafael disse...
27 de março de 2009 às 11:54
Este comentário foi removido pelo autor.
Vitor Rafael disse...
27 de março de 2009 às 11:54

Título: Video-Games: A Route to Large-Scale STEM Education?
Autor: Marrilea J. Mayo
Periódico: Science
Volume: 323
Páginas: 79-82
Ano: 2009

O que chama a atenção é a possibilidade de associar jogos com ensino e de aplicar essa associação em escolas e faculdades. O desenvolvimento de softwares, a utilização da computação gráfica, o uso de matérias como matemática e física estão intimamente relacionados com o curso.

A implementação dos estudos em STEM (science, technology, engineering and math) através do uso de jogos tem-se mostrado cada vez mais efetivo. Uma vez que a maioria dos adolescentes demanda mais tempo em jogos do que em suas tarefas, comprova-se a importancia de seu uso no meio acadêmico.

O uso do sistema audiovisual de jogos torna interessante a sua adaptação para o uso no ensino. Rever questões vistas em sala de aula com exemplos práticos, e de forma convidativa para os alunos, é algo difícil de se conseguir.

Além dos ensinos acadêmicos, os jogos podem providenciar outras lições importantes. Os jogos multi-jogadores, por exemplo, levam à necessidade de um ajudar ao outro, ou seja, ensina-os a trabalhar em equipe em favor de um benefício comum.

Em contra partida, a proibição de conteúdo dos jogos, a falta de um bom meio de divulgação e de distribuição atrapalha o desenvolvimento deste modelo. Deve-se também fazer uma avaliação mais precisa da real melhora no rendimento dos alunos que adotaram os jogos educativos.
Para a adoção deste modelo em larga escala, ainda é necessário a evolução de uma estrutura que o torne viável. O aumento da quantidade de usuários, a evolução da qualidade do produto e métodos rentáveis de produção são os principais problemas a serem ultrapassados.

Linhas de Interesses: Desenvolvimento e utilizações de jogos e softwares, computação gráfica.

Olympio disse...
27 de março de 2009 às 12:20

Knowledge, economy, technology and society: the politics of discourse.
Autor: David Rooney
Periódico: ACM Computing Surveys
Volume: 22
Páginas: 405 – 422 (no periódico)
Ano: 2005


O que me chamou a atenção foi justamente todo o envolvimento entre tecnologia, sociedade e conhecimento.

RESUMO DO ARTIGO

O artigo fala da perspectiva de uma região da Ásia-Pacífico, ele é predominantemente interessado no conhecimento. O artigo determina para si próprio um dever, uma obrigação que é amplamente humanitária. Seu crescimento ou progresso é com certeza o de dialogar, com inteligência, e munido de disposição para reconhecer o direito de cada um, preservando assim os direitos humanos, justiça etc. Houve também uma opção por reunir questões sobre conhecimento em toda sociedade, assim como uma adoção em estudos modificados para o conhecimento que é percebido nos debates predominantes. Este estudo enxerga o discurso dominante nos conhecimentos através de um meio de informações relacionadas a documentos políticos, um discurso teórico e uma relação da “absorção” do saber.
Seria fácil então perceber o quanto é importante a compreensão destes conhecimentos através de discursos de grande importância, isso tudo devido à sua qualidade de poder limitar a reflexão e a ação relacionada ao seu principal tema. As conclusões deste estudo mostram que o conhecimento do discurso dominante é freqüentemente impetuoso em relação às obrigações adotadas. Há um baseamento em algumas informações do que é e como os sistemas de conhecimento trabalham.
Vejo então uma relação sim do conhecimento com a tecnologia, e estes à computação, todos envolvidos num meio que se mistura e se modifica a cada dia que passa, participando de várias áreas da vida e do “conhecimento”.

POSSÍVEIS LINHAS

Me identifico bastante com questões de inter-relações, computação e meios de ensino com a educação. Assim como a importância da implementação da computação e outras línguas em repartições educacionais.

Carlos Jorge disse...
27 de março de 2009 às 12:22
Este comentário foi removido pelo autor.
Carlos Jorge disse...
27 de março de 2009 às 12:30
Este comentário foi removido pelo autor.
Carlos Jorge disse...
27 de março de 2009 às 12:37

Título: EVOLUTION: Robot Suggests How the First Land Animals Got Walking
Autor: Elizabeth Pennisi
Periódico: Science
Volume: 315
Páginas: 1352-1353
Ano: 2007

O QUE CHAMOU A MINHA ATENÇÃO DO ASSUNTO E COMO ELE SE RELACIONA COM OS CONTEÚDOS DO MEU CURSO:
O assunto escolhido desperta a minha curiosidade, pois envolve a área robótica, a evolução dos animais vertebrados e a computação; o fato da evolução ser demonstrada através de um robô o qual é controlado por métodos computacionais. A área robótica está diretamente ligada à computação, pois sem as técnicas e funções computacionais não seria possível o seu controle, ou seja, programas os quais fazem com que o robô se movimente se controle. Então essa relação da computação com a robótica tem muito a se expandir futuramente.

RESUMO DO ARTIGO:
Pesquisadores suíços, e Franceses criaram um robô, que foi chamado de Salamandra; ele possui três métodos de locomoção, ou seja, ele anda, rasteja como uma cobra e nada. Fisicamente formado por 85 centímetros de focinho, possui quatro pernas, seis articulações moveis junto a seu corpo, é alimentado por dez motores ao invés de músculos, controlado por um computador.
A criação tinha a função de trazer revelações sobre a evolução da locomoção dos animais e também postar conceitos biológicos.
Auke Ijspeert juntamente com uma equipe de cientistas desenvolveu um modelo para demonstrar como os circuitos neurais evoluíram desde os primitivos a animais parecido com o robô Salamandra, de acordo com o cientista para ocorrer uma transição no modo de locomoção é necessário mudar a força matriz do cérebro, ou seja, a força do pensamento.
Também foi desenvolvido um modelo matemático, que foi implantado no robô, o que mostrou que a maneira como ele se locomove tem semelhança com os animais primitivos. A espinha dorsal, implantada no robô, recebe sinais, oferecidos por um computador, que modifica a velocidade, o método de locomoção e a direção do deslocamento. Destacando-se assim como um dos melhores robôs para o estudo da evolução dos animais quanto a seus métodos de locomoção.
Contribuiu ao entender, como os animais desenvolveram a capacidade de se locomover, após ter passado a se locomover na terra, pois primordialmente se locomoviam na água.

POSSÍVEIS LINHAS DE PESQUISA QUE ME INTERESSAM:
A computação está diretamente ligada à robótica, portanto o campo de pesquisa é bastante extenso; na área pode ser desenvolvido algoritmos, para a implementação na robótica, tornando assim mais eficiente com diversas funções aperfeiçoando-o cada vez mais. A relação entre homem e máquina também é uma área muito interessante para pesquisa, modelagem computacional, a computação ligada à robótica na área da saúde tem muito a progredir e ser pesquisada também. Enfim são várias as áreas de pesquisas.

Adriano Sales disse...
27 de março de 2009 às 12:55

Rise of the Robots - The Future of Artificial Intelligence
Autor: Hans Moravec
Periodico: Scientific American
Volume:
Páginas: 7
Ano: 2009

A escolha desse artigo se dá ao fato de que a área robótica é uma área fascinante e que a cada dia cresce de maneira surpreendente. Muitos modelos são propostos com o intuito de auxiliar o homem em tarefas pesadas.

RESUMO:
Atualmente a eletrônica tem ultrapassado qualquer previsão feita por nossos antepassados e, como conseqüência, o mundo encontra-se saturado de equipamentos eletrônicos, computadores, etc.; mas esta evolução não é tão significativa. Em 1950, por exemplo, as pessoas acreditavam que hoje em dia os robôs estariam por toda parte fazendo os nossos trabalhos pesados, como, por exemplo, limpando o piso, cortando a grama, etc.. Os robôs são muito presentes nas indústrias, onde eles têm sido de grande ajuda, mesmo aqueles que só possuem movimentos simples como movimentar os “braços” e carregar equipamentos. Segundo o autor, em 2010 será possível ver robôs com tamanho de seres humanos mas com capacidades restritas, já em 2040, o auge da robótica será atingido e robôs terão capacidades parecida com a de seres humanos. Com o passar dos anos algumas experiências envolvendo robôs estão acontecendo, como em Outubro de 1995, quando um veículo experimental foi “lançado” de Washington em direção à São Diego. Este veículo-robô conseguiu dirigir sozinho por 95% do percurso proposto. Robôs similares foram lançados de outros locais dos Estados Unidos e Alemanha, os quais resistiram a todo tipo de clima, como por exemplo o experimento que ocorreu em 2005 quando conseguiram atravessar 132 milhas no deserto; sem mencionar os que também obtiveram sucesso em meio ao tráfego urbano. Segundo o autor, os computadores e robôs de hoje funcionam como o sistema nervoso de um inseto, ou seja, conseguem realizar apenas tarefas simples, como realmente as de um inseto. Os robôs conhecidos como veículos guiados automaticamente são os mais usados nos movimentos de cargas nas fábricas e em alguns armazéns.
A cada dia a criação de computadores e máquinas eletrônicas aumenta, e assim os computadores criados aparecem com novas funcionalidades como habilidade de procurar, de pegar e até mesmo carregar, aumentando seu potencial no mercado. O autor sugere que a inteligência do robô irá se tornar surpreendente antes de 2050, onde produzidos em massa, ajudarão o homem a descobrir milhares de coisas novas jamais pensadas pelo homem.

LINHAS DE PESQUISA: Redes de computadores, Engenharia de Software, Inteligencia Artificial, Interação homem-máquina.

João Paulo disse...
27 de março de 2009 às 13:02

Título: Solar Report Sets the Agenda
Autor: Robert F. Service
Periódico: Science
Volume: 309
Páginas: 1(549)
Ano: 2005

Para diminuir a poluição e evitar o fim de fontes não renováveis de energia, é importante a busca por fontes alternativas, fato que chama a minha atenção. O uso de tecnologias advindas da computação serve para otimizar os ganhos com fontes de energia.

Resumo do Artigo:
É cada vez mais importante a utilização de energia renovável para abastecer grandes necessidades mundiais de energia, porém é necessário tornar as células solares mais baratas e mais eficientes na conversão de energia solar em energia elétrica. Temos uma boa esperança quanto a isso, pois a eficiência dessas células vêm aumentando consideravelmente nas últimas 4 décadas e seus custos vêm sendo reduzidos por causa do aumento de vendas, principalmente no Japão onde houve uma redução de cerca de 7% ao ano entre 1992 e 2003. Ainda assim os preços tendem a cair, tornando a energia solar tanto competitiva, como barata o suficiente para ser usada como combustível e aquecimento doméstico.
Para atingir esses objetivos o novo departamento de energia enumera 13 prioridades para as pesquisas, dentre as quais estão:
• Design revolucionário de fotovoltaicas com o objetivo aumentar a eficiência.
• Células “Plásticas” podem reduzir drasticamente os custos da energia solar.
• Uso de nanotecnologia; são células muito mais baratas e podem ter sua eficiência aumentada através de novas formas de organizar as nanopartículas.
• Uso da energia solar para transformar a água (hidrogênio e oxigênio) em combustível para veículos e para eletricidade e transformar o dióxido de carbono em fontes de energia.
• Além do uso de concentradores de calor que concentram a quantidade de luz solar necessária para se atingir altas temperaturas e o uso de nova cerâmica para suportar as temperaturas elevadas.

Linhas de Pesquisa: Fontes renováveis de energia, energia solar.

Ottonyel Lima disse...
27 de março de 2009 às 13:26

Título: Robot Ethics
Autor: Robert J. Sawyer
Periódico: Science
Vol: 318. no. 5853, p. 1037(no periódico)
Ano: 16 Novembro de 2007:

O que me chamou atenção é que é uma área tecnológica que está em constante evolução, sempre surgem novos robôs que desempenham determindadas tafefas, alguns robôs são cada vez mais parecidos com os seres humanos. Se relaciona com o curso, porque existe a parte de programação na construção dos robôs.

Iraque no dia 1 de setembro de 2007, operadores utilizaram uma aeronave não tripulada, para soltar uma bomba em dois indivíduos que pareciam estar colocando explosivos perto de Qayyarah. Cada vez mais se constrói robôs inteligentes e autônomos e eventualmente com independência e com capacidade de matar pessoas, por isso temos que considerar como devemos controlá-los. O governo está combatendo isso hoje, não só porque robôs estão matando pessoas, mais também porque estão se tornando domésticos e alguns podem agir como seres humanos.
Em 1942 Isaac Asimov propôs as três leis da robótica:
1- um robô não pode machucar um ser humano, e por falta de ação, permitir que um ser humano seja machucado;
2- um robô deve obedecer as ordens dadas a ele pelos seres humanos, exceto quando essas ordens entrem em conflito com a primeira lei;
3- um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a primeira ou segunda lei.
Em 1947, Williamson sugeriu uma diretiva ainda mais simples onde dizia que os robôs deveriam servir e obedecer, e guardar os homens contra o mal. Todas as tentativas para governar o comportamento robótico através de códigos e algoritmos podem falhar. As máquinas irão executar códigos lógicos que foram programados, mas o resultado no mundo real pode não ser o esperado, mesmo assim as tentativas ainda continuam, por isso os governos estão remodelando as leis de Asimov e Williamson. Há dois anos, o ministro do comércio, indústria e energia da Coréia, estabeleceu orientacões relativas as funções e a ética dos robôs , a euron (the European Robotics Research Network) também anunciou planos para desenvolver guias nas áreas de proteção, segurança, privacidade, rastreabilidade e identidade, nos Estados Unidos muitos robôs são criados para fins militares, mesmo assim é provável que as mais importantes regras e responsabilidades na área robótica venham de lá . A ficção científica pode ser o nosso guia, para escolhermos a melhor maneira de agir com os robôs.

Possiveis linhas de pesquisa que me interessam: relação homem-computador, inteligência artificial, rede de computadores.

Anderson Cunha disse...
27 de março de 2009 às 13:54

Título: Moving database theory into database practice
Autor: Jeff Ullman
Periódico: ACM Computing Surveys (CSUR)
Volume: 28
Páginas: 3 (no formato doc)
Ano: 1996



Motivo de escolha: Devido a uma tendência minha em querer trabalhar nisso futuramente, ao crescimento da área e pela crença que uma boa parte das pesquisas futuras irá ser voltada para DB resolvi escolher esse tema como ponto de partida de minhas pesquisas.

Mesmo muitos profissionais da área de Tecnologia da Informação esquecendo dos DB`s, e se preocupando somente com o desenvolvimento de aplicações, a tecnologia está começando a ver a luz do dia em empreendimentos comerciais. Com o surgimento do SQL3 as aplicações ganharam um novo impulso na área de integração e armazenamento dos dados.
A incessante busca pela integridade e confiabilidade da informação, bem como um crescente interesse em sistemas que trabalham com questões complexas, tem feito surgir algumas ferramentas, que combinam varias fontes de dados em um todo. Com isso surge o conceito de “views” ou visões, que são tabelas virtuais que não existem fisicamente e que são criadas a partir de consultas, mas que depois de existirem se comportam como tabelas normais. Mas ainda assim surgem questões interessantes como, a sua utilização em sistemas de consulta, bem como a sua manutenção, conforme as fontes mudança.
Na era da informação, usar opiniões relevantes para refinar e otimizar as consultas, e a ideia central! Para isso, hoje, contamos com os SGBD`s, que conseguem visualizar grande quantidade de dados e relaciona-los em pouco tempo retornando ao usuário a informação propriamente dita em um tempo preciso.

Unknown disse...
27 de março de 2009 às 13:59

Título do artigo: A Review of Overview + Detail, Zooming,and Focus + Context Interfaces

Autor: Andy Cockburn
Periódico: ACM computing Surveys
Volume: 41, artigo 2.
Número de páginas: 31
Ano: 2008, dezembro.

.

A parte de interface gráfica me chamou a atenção por ser a parte mais importante em um software. A parte que vai interagir com os seres humanos. O estudo da interface gráfica é o que aproxima o software dos usuários, aproxima a computação de todas as pessoas em todas as áreas de atuação. Pois a grande maioria das pessoas que usam um editor de texto famoso não se preocupam com as milhões de linhas de código por baixo daquilo que elas estão vendo, elas não se preocupam com toda a equipe de programadores, designers e gerentes de projeto. Só o que as pessoas vêem é o produto final. A interface feita para elas. E se a interface não agradar, por mais funcional que seja o software, ele não vai ser difundido. Por isso, o estudo para uma boa interface é necessário, e é uma parte muito importante para a computação como um todo.

.

No artigo é apresentado o estudo de interface gráfica acerca do uso das novas ferramentas de implementação. Hoje em dia existem interfaces que permitem que o usuário faça praticamente tudo o que ele quiser.
Primeiro, os autores descrevem o uso das interfaces implementadas em cima das ferramentas de visão geral e visão detalhada, que geralmente estão juntas em uma interface. Eles dão como exemplo o MS PowerPoint, onde aparecem simultaneamente a visão geral dos slides e a visão detalhada, de acordo com a escolha do usuário.
Em segundo lugar vem as interfaces que lidam com foco e contexto baseadas nas ferramentas de zoom. Existem várias formas de se utilizar o zoom numa interface. O zoom é muito utilizado nas ferramentas de leitura de texto, como o Adobe Reader. Existe também o 'zoom and pan', que consiste em dar zoom num lugar selecionando com o mouse, que é muito utilizado em softwares de visualização de mapas.
Interfaces que utilizam ferramentas de foco e contexto, são aquelas que se preocupam em focar a atenção do usuário em um ponto específico. Uma ferramenta para esse fim é o chamado 'fisheye' ou 'olho de peixe', temos como exemplo o 'Dock' o painel de ícones do MAC OSX. Ele não demonstra nenhuma ação até que o usuário decida passar o mouse em algum ícone específico, que instantaneamente direciona o foco da atenção do usuário para esse ícone.
Foram apresentadas várias ferramentas muito usadas na confecção de interfaces nos dias de hoje, mas nenhuma delas é vista como ideal. Muitas tem falhas, e nem todas podem ser aplicadas em todos os tipos de software. Mas tudo isso é uma motivação para que os pesquisadores continuem analisando e desenvolvendo novas técnicas para o desenvolvimento de interfaces gŕaficas.


.

Possíveis linha de pesquisa do meu interesse: Estudo e design de Interfaces gráficas; computação gráfica voltada a modelagem e animação; engenharia de software.

.

Olavo de Holanda disse...
27 de março de 2009 às 14:33
Este comentário foi removido pelo autor.
David Dantas disse...
27 de março de 2009 às 14:34
Este comentário foi removido pelo autor.
Olavo de Holanda disse...
27 de março de 2009 às 14:46

Neural Networks
Autor: Michael I. Jordan, Christopher M. Bishop
Periódico: ACM Computing Surveys
Volume: 28, issue 1.
Páginas: 73 - 75
Ano: 1996

O que me chamou atenção foi a capacidade de uma máquina se adaptar e aprender através de exemplos, ou seja, adquirir conhecimento com a experiência, o que só é possível com a aplicação de uma rede neural. Outro ponto que me interessou nesse campo foi a interdisciplinaridade. Redes neurais se relaciona com o curso, na parte de implementação (programação) dela.

Resumo breve do artigo:

Redes Neurais surgiu como um campo de estudo envolvendo Inteligência Artificial e Engenharia, com a colaboração de engenheiros, físicos, matemáticos, cientistas da computação e neurocientistas. Contudo as vertentes de pesquisa nesse campo são muitas, com um foco principal em padrões de reconhecimento e padrões de geração.
Uma rede neural é antes de tudo um grafo, com padrões representados em termos de valores numéricos e anexados aos nós do grafo. Alguns nós do grafo são geralmente diferenciados como sendo nós de entrada ou de saída e o grafo como um todo pode ser representado como ligações de funções variadas entre as entradas e saídas.
Uma visão mais ampla sobre a arquitetura de redes neurais compreende o tratamento da rede como um processador estatístico, caracterizado por fazer particulares suposições probabilísticas sobre quaisquer dados.
Redes neurais têm descoberto uma grande extensão de aplicações, a maioria dos quais estão associados a padrões de reconhecimento e teoria de controle. Mas também se aplica em exemplos de rotina, como reconhecimento de caracteres manuscritos, reconhecimentos de massas em imagens medicas, reconhecimento de padrões para verificação de assinaturas manuscritas, entre outros.
O futuro para redes neurais é excelente, dada a crescente sofisticação da teoria subjacente, o aumento da aplicabilidade das suas técnicas e a grande escala de aplicações que estã sendo realizadas. A natureza interdisciplinar de pesquisa no campo parece certa a persistir. Por último, na neurociência teórica irá proporcionar um impulso contínuo para o desenvolvimento e compreensão dos modelos de rede de inteligência.

Linhas de pesquisa: Inteligência Artifical; Redes Neurais(subcampo de IA); Aprendizagem por reforço; Engenharia de Software.

Marcio Augusto disse...
27 de março de 2009 às 14:49

Escolhi esse artigo por que gosto de ler sobre a história do início, criação das áreas que tenho interesse, acho útil ter uma idéia dos problemas que encontraram no passado e como foi resolvido para chegar no que temos hoje.
Linhas de pesquisa: Computação Gráfica, Hardware, Eletrônica, Redes, Sistemas embarcados e Sistemas Operacionais.

Título: Electronic Computers: A Historical Survey
Fonte: ACM Computing Surveys (CSUR), Volume 1 , Issue 1
Páginas: 7 - 36
Ano: 1969

O artigo “Electronic Computers: A Historical Survey” de Saul Rosen, tenta descrever a história e a evolução dos computadores eletrônicos, dos laboratórios das universidades até as indústrias presentes na época, 1969, o ano em que o documento foi publicado. Em maior parte, referencia os computadores desenvolvidos nos Estados Unidos da América, mas contém também as contribuições de outros países como Inglaterra, Alemanha, França e Países da região Escandinávia para o desenvolvimento dos computadores.
Nos laboratórios das universidades foram desenvolvidos alguns projetos para a construção de computadores eletrônicos. O entre eles, ENIAC na Universidade da Pensilvânia o primeiro computador eletrônico, construído em 1943, possuía cerca de 18000 válvulas eletrônicas; o EDVAC projeto que contou com John Von Neumann e iniciado em 1946 em Moore School na Carolina do Sul; o EDSAC iniciado em 1947 na Universidade de Cambridge na Inglaterra, entre outros computadores como IAS Computer, Whirlwind, os computadores criado na Universidade de Manchester na Inglaterra, SEAC e o SWAC.
O aparecimento de grandes indústrias para construção de computadores dá inicio a primeira geração de computadores. A segunda geração se inicia com o invento dos transistores que reduziu o tamanho dos computadores, o custo, melhorou a desempenho. A terceira geração, a geração dos circuitos integrados que inicia por volta 1961 com o IBM System/360.

Reberth Cavalcante disse...
27 de março de 2009 às 14:56

Título: MECHANICS OF CELLULAR AND OTHER LOW-DENSITY MATERIALS
Autor: R.M. Christensen
Períodico: Science Direct
Volume: 37
Páginas: 93-104
Ano: 2000
Journal: International Journal of Solids and Structures

Esse artigo me chamou atenção por está fortemente relacionado com a Engenharia Civil que se preocupa com a relação peso/rigidez da estrutura, o peso esta relacionado com o nível de porosidade do material e a rigidez com a garantia da integridade da estrutura sobre cargas atuantes (solicitações). Além disso, curiosamente, esse artigo contém um comentário sobre a aplicação da célula de Voroni (assunto comentado em sala de aula 23-03-2009). Esse artigo se relaciona em várias linhas de pesquisa da Engenharia de Estruturas, tais como: Novos Materiais, Mecânica dos Sólidos (mais precisamente micromecânica) e Modelagem computacional de Materiais.


Este artigo trata da avaliação de propriedades mecânicas de materiais sólidos com baixa densidade. Tipicamente, esses materiais devem apresentar uma redução no nível de densidade, no entanto, isso não deve afetar a integridade mecânica (capacidade do material suportar cargas) deles. Esses requisitos entram muitas vezes em conflito. O desafio torna-se então introduzir um nível de porosidade, de tal modo que o comportamento mecânico seja garantido. Deparando-se com um problema de otimização. Essa otimização pode ser feita a partir da determinação da Superfície Mínima, para esse caso consistiria na determinação da periodicidade de célula que subdivide o espaço em células, apresentado essas a menor área (superfície). Para o caso de pontos aleatórios sobre uma região pode-se utilizar a célula de Voroni.
A microestrutura da porosidade é a característica mais relevante para determinar e controlar o comportamento mecânico do material. Os materiais de baixa densidade (porosos) são aplicados desde bens de consumo como alimentos, materiais de embalagem, podendo ser aplicados também na indústria aeroespacial, naval e de artigos esportivos. Esses materiais são comumente denominados por materiais celulares. O presente artigo avalia o comportamento mecânico perto do limite máximo de porosidade, além do qual o material perde a integridade mecânica.

Romero disse...
27 de março de 2009 às 15:04

Can Robots Be Programmed to Learn from Their Own Experiences?
Autor: Julian Smith.
Periódico: Scientific American.
Páginas: 2.
Ano: 2009.

A escolha do artigo foi dada pela discussão sobre criar uma forma de tornar uma máquina realmente autônoma, sem que a mesma dependa de programadores para se adaptar a diferentes ambientes e situações.

Resumo:
Atualmente a idéia de ter um "Robô Pessoal" pode estar mais perto do que o esperado, mas, para um robô pessoal poder ser realmente útil ele deve ter a capacidade de aprender a partir de suas próprias interações com o ambiente físico e social.
Alexander Stoytchev e um grupo de alunos estão desenvolvendo um programa que ensina a robôs a aprenderem como crianças de dois anos.
Em uma série de experimentos, foram apresentados diferentes objetos a um robô, onde este teria que realizar cinco ações diferentes para cada objeto e partindo do som que cada objeto emitia teria que identificar e classificá-los. Depois da primeira tentativa o robô apresentou uma taxa de sucesso de 72%, mas a cada ação sucessiva a sua precisão subia (atingindo a marca de 99,2%). O robô havia desenvolvido um método que usava um modelo de percepção para identificar objetos, podendo utilizar esse modelo pra definir o quão dois objetos são semelhantes tendo apenas o som que eles emitem como base.
Outro experimento mostrou que o robô pode aprender se algo pode ser ou não um recipiente, o que pode levar a um robô a discernir as capacidades de um objeto desconhecido.
Outra pesquisa interessante tem sido feita num laboratório da Intel em Pittsburgh onde foi criado HERB ("Home Exploring Robotic Butler"), cujo objetivo é criar um assistente robótico verdadeiramente autônomo que pode executar tarefas rotineiras em ambientes desordenados, como residências ou escritórios, na mesma velocidade que um humano.
Observando como as pessoas se movem e usando algoritmos de aprendizado, HERB é capaz de predizer para onde vai ser o próximo passo da pessoa evitando assim ficar no caminho dela, pois, para se mover ele sabe que não pode somente andar em linha reta. HERB toma exemplo dos humanos para poder generalizar, não cabe a ele só lidar com o que está acontecendo, e sim, lidar com situações desconhecidas, ele utiliza um banco de dados com imagens 3d para reconhecer objetos.
Robôs autônomos vêm surpreendendo até os próprios criadores, conta-se que uma versão mais antiga do HERB quando foi pegar xícaras de café para colocar na máquina de lavar louça, usou um movimento mais eficiente do que o que fora ensinado a ele, mais tarde foi descoberto que o movimento que ele realizou é utilizado por barmen profissionais.
Linhas de pesquisa: Inteligência artificial e engenharia robótica.

Natália Julieta disse...
27 de março de 2009 às 15:15

Título: Criating Science of the Web
Autor(s): Tim Berners-Lee, Wendy Hall,James Hendler,Nigel Shadbolt, Daniel J. Weitzner1
Periodico:Science
Volume:313
Páginas:3
Mês/Ano de Publicação: Outubro/2006

Motivação: O artigo, aborda uma área inovadora e muito promissora para o fulturo, não só de computação, assim como na forma de comunicação da sociedade. O tema abordado disperta um grande interesse para a realizaçãoes de possiveis trabalhos para mim.
Relação com o curso: O artigo aborda a área da web, relatando uma nova tendência para a rede da internet, dado a essa nova web, uma autonomia que será independete, para que isso ocorra, estudos sobre ligagens de computadores estão constantemente ligadas ao assunto.

Resumo: O artigo, faz uma bordagem da web, colocando ela não sou como uma estudo da ciência da computação, mas como um estudo de uma nova ciência, a Ciência da Web, onde são abordades as redes sociais e coomperativas, que existem na web hoje.
Os autores fazem um restropectiva da web desde de sua criação até a nova web, denominada "web semântica". O foco principal de estudo e pesquisa são redes sociais, wikis, blogs, tags, criação e compartilhamento de vídeos e música, etc. A ciência da web mostra-se como uma ciência interdisciplinar, envolvendo não apenas tecnologias, envolve outras ciências, como: sociologia, economia, biologia, psicologia, etc. Essa nova web não ficará presa a analisar eficiêcia da tecnologia, mas em fazer uso da mesma.

Linhas de Pesquisa de interesse: Web Semântica, Computação para redes sociais, Data Mining, Software Livres, Linguagens de Computadores.

cloves disse...
27 de março de 2009 às 15:21

Título: Computer Animation
Autores: Nadia Magnenat Thalmann
Daniel Thalmann
Periódico: ACM Computing Surveys
Volume: 28
Paginas: 161-163
Ano de publicação: 1996

Resumo:

Animação computacional ou CGI( imagens geradas por computador ) animação é uma técnica de animação que se dá através da criação de imagens com movimento, tal movimento é gerado pelo intervalo de tempo em que as imagens são geradas na tela. Animação computacional é uma sub-divisão da animação e da computação gráfica, sua aplicação é bastante ampla, partindo de uma simples animação para um computador podendo chegar à geração de ambientes virtuais, análise e simulação médica/física, dinâmica em jogos de computador e animação para desenvolvimento de filmes, exemplo: A era do gelo.
Um Método de Controle do Movimento especifica à animação de determinado objeto. Podemos caracterizar um MCM levando em consideração o tipo de informação relevante no controle de uma animação, desse modo, temos os seguintes tipos de MCMs:
Geométrica - keyframe técnicas; Fisicamente- baseia –se usando física dinâmica; Comportamento - individualmente e como um grupo.
. Para MCMS geométrica a informação primária é geométrica, por exemplo, coordenação de posições, ângulos, etc. Para MCMS fisicamente baseada, são movidos por leis físicas, a informação primária é o conjunto físico característico do sistema, por exemplo, massa, momentos de inércia, rigidez ,etc. Para os sistemas de informação primária comportamental é o conjunto de comportamentos que motivam o sistema precisamos também considerar como o ator interage com o resto da cena.

Possíveis Linhas de pesquisa que me interessam: desenvolvimento de jogos, computação gráfica.

A minha escolha se deve à vasta aplicação da animação, pois no nosso cotidiano nos deparamos constatemente com exemplos de animação, seja num filme ou em um site qualquer. Além disso, o que seria da infância de uma criança sem desenho animado.

Ana Carla disse...
27 de março de 2009 às 15:32

Referências
Título: "Using Economics as Basis for Modelling and Evaluating Software Quality".
Autores: Stefan Wagner
Periódico: ACM Computer Surveys (CSUR).
Páginas: 4,
Mês/Ano de Publicação: Maio/2007

Motivação:
Pelo conhecimento adquirido até então no curso de Ciência da Computação, principalmente nas matérias de programação, a motivação pela qual escolhi esse artigo é ver o aprimoramento na construção de software tendo por conseqüência uma economia de custo.

O artigo relata o grande interesse na economia dos custos de software e de sua qualidade, o que tem sido discutido na engenharia de software por um longo tempo.
As grandes empresas de software prezam pela qualificação e economia de seus projetos, porém, tendo qualidade como um conceito complexo que está muito nos olhos de quem vê. A visão da engenharia na qualidade não é vista como um atributo essencial de um produto, mas na combinação de diversas propriedades do produto em sua economia. Dar-se como exemplo, a manutenção freqüente de um sistema que significa uma correção de falhas, melhoramento de desempenho, um incremento a mais no sistema, enfim um esforço necessário que leva a custos, onde estes são decisivos para aumentar a qualidade do sistema.
Todavia, existem os problemas na combinação de qualidade e economia. Onde, na opinião do autor, são relatados: Falta de conhecimento empírico na investigação, a falta de dados relevantes na indústria, dificuldades de utilização de unidades monetárias e a falta de educação relacionada com a economia. No grupo de pesquisa desenvolvido, twodimensional quality model tem a pretensão de abordar este tipo questão, contendo dados sobre o software, seu ambiente correspondente e atividades realizadas sobre ele. Sendo possível após a combinação dos dados verificarem a qualidade e usabilidade do projeto.
Outro problema está no difícil acesso aos dados de empresas, para fazer um levantamento em seus projetos, pois normalmente são informações secretas que não deve ser dadas aos concorrentes. Dificultando os estudos empíricos.
O principal foco deste artigo é a importância da qualidade do software associada ao custo benefício. Que são dois conceitos fundamentais no desenvolvimento de projetos.

Linhas de pesquisa:
Engenharia de Software e Computação Gráfica

Mª Helynne disse...
27 de março de 2009 às 15:32

Título: Perspectives on Software Engineering
Autor: Marvin V. Zelkowitz
Periódico: ACM Computing Surveys
Volume: 10
Página: 197 - 216
Ano: 1978

Engenharia de software é um campo interdisciplinar. Ela usa matemática para analisar e certificar algoritmos, engenharia para estimar os custos e ciência para definir os requisitos, avaliar os riscos, supervisionar e monitorar o progresso.
Para melhor controlar o desenvolvimento de um projeto, os gestores de software têm identificado seis fases distintas através pelas quais os projetos de software passam:
1) Requisitos de análise: Esta primeira etapa define os requisitos para uma solução aceitável do problema, pensando no tempo de processamento e custos de probabilidade de erro.
2) Especificações: As especificações permitem testar os dados a serem desenvolvidos. Definem apenas o que o sistema vai fazer, mas não como fazer.
3) Design: Nessa fase, os algoritmos chamado na especificação são desenvolvidos. O sistema deve ser dividido em pequenas partes, cada uma é da responsabilidade de um indivíduo ou de uma pequena equipe. Cada um desses módulos deve ter definido suas funções, tamanho e
tempo. Eles são representados em uma árvore diagrama mostrando a organização dos componentes do sistema.
4) Codificação: É geralmente a etapa mais fácil. Linguagens de programação de alto nível simplificam a tarefa.
5) Teste: O estágio de teste pode exigir a metade do esforço total. O programa deve ser testado pelo programador, depois por grupos. Além disso, o teste do sistema também pode ser feito por um grupo externo e pelo comprador.
6) Operação e manutenção: Um sistema de computador não é imutável. O comprador pode pedir mudanças no sistema e erros perdidos no teste serão posteriormente descobertos. Essa fase inclui os procedimentos para a elaboração de relatórios, análise, distribuição e reparação de erros.

A área de Engenharia de Software me chama atenção porque lida com desenvolvimento e manutenção de sistemas de software. Acho muito interessante ver e fazer com que um projeto saia do campo das idéias, desenvolva-se e se complete, sendo então útil para muitas pessoas.
Outras áreas com que me identifico: Programação, Arquitetura de computadores, Interação homem-máquina e Inteligência artificial.

Endhe disse...
27 de março de 2009 às 15:47

*Título: Security wireless sensor networks
*Autores: Adrian Perrig - Carnegie Mellon University in Pittsburgh
John Stankovic - University of Virginia in Charlottesville
David Wagner - University of California
*Periódico: ACM Computing Surveys
*Volume: 47
*Páginas: 5
*Ano: 2004
Motivo da escolha:
Sempre achei fascinante o modo com que os sensores das redes interagem, seja ela com ou sem fio, porém as redes sem fio tem algo a mais, principalmente no que diz respeito a segurança. O estudo das redes está diretamente relacionado com o curso, seja por meio de matérias específicas ou por projetos desenvolvidos em laboratórios.
Breve resumo do artigo supracitado:
As redes sem fios estão cada vez mais presente em nosso cotidiano, e é de suma importância desenvolver um meio para com que seus integrantes se comuniquem de maneira segura.
Para atingir um sistema seguro, a segurança deve ser integrada a cada componente, um dos grandes desafios é que as técnicas tradicionais não podem ser aplicadas diretamente e os sensores possuem uma computação limitada. Pesquisas recentes mostram a criação de uma chave aleatória, na qual é escolhido um subconjunto de chaves e o mesmo sendo distribuído para cada sensor, a desvantagem desse método é que a segurança fica comprometida com vários nós, e uma vez descoberto um subconjunto de algum nó, a chave completa pode ser reconstruída, quebrando todo regime.
Como já foi dito, cada sensor possui uma computação limitada, o que várias dificuldades, como por exemplo na agregação e análise de dados, porém em redes sem fios isso pode ser feito por grupos de nós. Outros serviços podem ser executados por esses grupos, um dele será discutido abaixo.
Ao contrário das redes com fios, para detectar intrusos nas redes sem fios não é viável controlar todo o tráfego da comunicação ou analisar anomalias em todos os sensores, pois teria um custo bastante elevado de energia, memória, entre outros. O uso de grupos de nós seguros pode ser uma abordagem promissora na resolução desse problema.

O uso da redundância em redes sem fios, pode ser um forte aliado para suprir a falta de segurança física, pois se alguns de seus sensores estiverem com a capacidade comprometida, temos a opção de utilizar sensores redundantes para resistir mais um ataque. Enfim muito já foi feito na área de segurança dessas redes, porém há muitos aspectos que precisam ser investigados e melhorados.

Rony Bezerra disse...
27 de março de 2009 às 15:58

Periodico: Science
Ano:2007
Título: Because Computers Don't Compost
Autor: Robin Nagle
Volume: 316. no. 5825
Páginas. 693 - 694

Escolhi este artigo, pois o mesmo demonstra o impacto da tecnologia e dos dispositivos eletrônicos no meio ambiente mostrando que existe também um lado negativo que pode tornar-se problemático, caso não tomemos medidas urgentes.

Os arqueólogos estudam as culturas e modos de vidas já extintos a partir da analise de vestígios materiais. Estudiosos como William Rathje, arqueólogo formado em Harvard investigou o lixo contemporâneo doméstico gerado pelas pessoas, e também escavou um dos piores aterros dos EUA, constatou que algumas das camadas nunca decomporam-se, conservando assim os vestígios de nossa civilização no conturbado século 20. E são exatamente estes restos e dejetos da sociedade que irão contar nossa História no futuro. Estudos recentes mostram que entulhos digitais crescem a uma taxa alarmante de 20 a 50 milhões de toneladas por ano. E que o lixo tecnológico contribui com 70% dos metais pesados diz Elizabeth Grossman , em seu livro “High Tech Trash: Digital Devices, Hidden Toxics, and Human Health “. Por exemplo, o silício, grande parte do processo que o transforma em chip, libera grandes quantidades de água e substancias tóxicas, expondo os trabalhadores aos riscos de contaminação. Por anos os cidadãos de Mountain View na Califórnia estavam orgulhosos de ter empresas como a GTE, Intel e Mitsubishi instaladas em sua cidade. Mas agora se percebe que estes lugares estão contaminados com o tricloroetileno TCE, em poços, nas águas subterrâneas. Ambientalistas e entidades estaduais acreditam que o TCE seja uma neurotoxina e que já está presente em vários locais de abastecimento de água, devido do despejo ilegal de resíduos oriundos da fabricação de componentes digitais. Reciclar computadores e equipamentos eletrônicos é tecnicamente possível, mas ainda não é pratico em larga escala. Grossman afirma que 90% dos dispositivos eletrônicos acabam incinerados ou em aterros. Apesar de maravilhosa a longa história dos dispositivos eletrônicos, envolvendo degradação ambiental, fraqueza política e desperdícios. Os chips podem ser pequenos, porém sua repercussão na sociedade é imensa e preocupante.

Possíveis linhas de pesquisa do meu interesse: Programação em dispositivos móveis, impactos e conseqüências da tecnologia na sociedade, tecnologia utilizada para expor a cultura brasileira.

Joseanderson Caldas disse...
27 de março de 2009 às 16:00

Título: MPI versus MPI+OpenMP on the IBM SP for the NAS Benchmarks
Autores: Franck Cappello e Daniel Etiemble
Periódico: ACM Computing Surveys (CSUR)
Páginas: 12 (no arquivo PDF)
Data: Novembro, 2000

-Tenho interesse particular na área de HPC com foco em processamento paralelo. Nos último meses tenho estudado os padrões OpenMP e MPI. Um dos meus objetivos atuais é a criação de uma versão de um simulador utilizando os dois padrões.
Atualmente, possuem destaque dois modelos de programação paralela. Um deles voltado para ambientes de memória compartilhada (SMP’s e arquiteturas multicorei com o uso de OpenMP) e outro para memória distribuída (clusters com o uso de MPI). As primeiras máquinas de memória compartilhada possuíam um custo elevado e em geral eram pouco escaláveis. Essas características dificultaram o seu acesso na indústria e no meio acadêmico, estimulando o uso de modelos para memória distribuída, principalmente com o padrão MPI.
As características desses modelos foram decisivas para que os programas em paralelo, em sua maioria, fossem construídos com o padrão MPI. Porém, com os avanços da tecnologia e as barreiras impostas pelo limite de processamento de processadores convencionais, deu-se início a era da tecnologia multicore, que consiste de múltiplos núcleos de processamento, compartilhando uma única memória, em único processador. Assim, os clusters passaram a apresentar um modelo híbrido de memória, o que permitiu o uso de ferramentas (OpenMP) que eram voltadas apenas para modelos memória compartilhada. Tornou-se então possível, usar em clusters, modelos híbridos de programação (MPI + OpenMP).
O problema dessa união de modelos é que ambos apresentam diferentes paradigmas de programação e misturar tais modelos pode não ser necessariamente à melhor alternativa, principalmente quando já existe uma versão da aplicação com MPI. A resposta para esse problema deve ser encontrada investigando não somente as características da aplicação, mas também a metodologia empregada para construção da versão inicial e aspectos de hardware envolvidos.

Michele Agra disse...
27 de março de 2009 às 16:00

Autor: Roger N. Anderson
Título: Oil Production in the 21st Century
Periódico: Scientific American 278 86-91 Mr '98

O foco central do artigo consiste em questões e previsões em relação à exploração de petróleo no século 21. Inicialmente, questiona-se a possibilidade de escassez desse combustível no futuro. De acordo com as previsões da época em que o artigo foi escrito, em 2010 a economia demandará 10 milhões de barris de petróleo a mais do que a indústria será capaz de produzir. Essa possível realidade poderia elevar significativamente o preço do óleo, conduzir a uma recessão econômica e até mesmo a guerras.
Apesar dessa previsão catastrófica, os avanços tecnológicos indicam uma grande possibilidade de reverter essa situação. Tais avanços irão permitir a descoberta de novos poços e aumentar a capacidade de recuperação de poços já explorados. Entretanto, o autor ressalta que os grandes progressos da indústria do petróleo, tradicionalmente, demoram muitos anos para serem aplicados na prática. Questiona-se, então, se as novas tecnologias surgirão a tempo de suprir a grande demanda prevista. A resposta para essa dúvida está nas mãos das grandes economias mundiais, que serão as responsáveis pela aceleração desse progresso.
Ao longo do artigo, o autor aborda quatro avanços tecnológicos que estão proporcionando um aumento significativo na extração de petróleo. O primeiro deles se trata de um novo método de monitorar e descobrir novos poços de óleo e gás, por meio de uma metodologia em quatro dimensões (incluindo a dimensão de tempo). A utilização de robôs submarinos também surge como uma nova e importante tecnologia, capaz de monitorar com maior precisão a exploração de petróleo em alto mar. O autor aborda ainda a exploração de poços de petróleo por meio de injeção de dióxido de carbono líquido. A elevada pressão utilizada por essa técnica permite a extração em poços “mortos”, que cessaram sua produção. Uma quarta tecnologia citada e comentada pelo autor consiste na exploração direcional de poços, que permite ao engenheiro optar por direções verticais ou horizontais de exploração, conforme maior conveniência.
A exploração de petróleo, tanto onshore quanto offshore, sempre conduziu a grandes desafios e enfrentou diversas dificuldades. Com certeza, barreiras e desafios atuais serão superados e surgirão novos outros. Esse é o percurso da ciência, da tecnologia e do desenvolvimento.
O que chamou minha atenção nesse artigo foi à abordagem do ponto de vista de alguém no ano de 1998 em relação ao futuro da exploração de petróleo, aos desafios da época e as tecnologias existentes e em desenvolvimento. Esse assunto me interessa bastante uma vez que está diretamente relacionado com minha linha de pesquisa no mestrado e nos estudos do Laboratório de Computação Científica e Visualização – LCCV, do qual faço parte.

Possível linha de pesquisa: Dentro da engenharia offshore, me interesso particularmente pelo estudo dos risers, que são os dutos que transportam o óleo do fundo do mar até a superfície.

Reberth Cavalcante disse...
27 de março de 2009 às 16:01

Título: SHAPE-SHIFTERS
Autor: Steven Ashley
Períodico: Scientific American
Volume: 284
Páginas: nº 5 20-1
Ano: 2001


Esse artigo me chamou atenção por está fortemente relacionado com a Engenharia na área de Novos Materiais, Mecânica dos Sólidos e Modelagem computacional de Materiais.


Este artigo comenta sobre a capacidade que alguns materiais apresentam em mudar a sua forma em resposta as condições do ambiente e solicitações que venham a ser aplicadas sobre o mesmo. Esses materiais são denominados inteligentes, uma vez que os mesmos apresentam “memórias” que lhes permitem se deformar e restabelecer sua forma original (geometria), por exemplo, sob efeito de temperatura.
Conhecido por Shirink-wrap, talvez o mais conhecido exemplo de forma de memória polimérica. Os materiais “inteligentes” apresentam certas desvantagens, tais como: custo elevado e tem uma deformação máxima cerca de oito por cento.
Esses materiais podem ser brevemente utilizados na indústria automobilística, uma vez que esses materiais podem se adaptar ao ambiente de um dia ensolarado ou frio, mantendo uma temperatura agradável para o usuário.

David Dantas disse...
27 de março de 2009 às 16:21

Título: Stealth and Efficiency
Autor: Siobhan Wagner
Períodico: Science American
Volume: 294
Páginas: 1
Ano: 2009

O que chamou a atenção nesse artigo foi a busca de novos materiais de construção para atender a demanda das obras de engenharia, nesse caso da engenharia naval. A astúcia dos cientistas em utilizar tirar proveito de vário materiais para produzir uma material que se encaixe nas inúmeras aplicações de engenharia.

O artigo escolhido apresenta o estudo do uso de materiais compósitos na aplicação em estruturas navais, mais especificamente os submarinos, as principais vantagens e desvantagens atreladas à utilização desse novo tipo de material, além das principais aplicações realizadas atualmente.
O autor enfatiza a potencial economia que pode ser gerada utilizando compósitos devido, essencialmente, a boa relação que esse tipo de material pode apresentar com a água. A expectativa dos pesquisadores da Universidade de Oxford é desenvolver um novo material composto por fibras e arquiteturas híbridas que possa suportar por vários anos os esforços de permanecer submerso em água, além de possíveis impactos de artilharia naval.
Por fim, o artigo destaca a busca de um novo material que possa substituir o aço nas aplicações da engenharia naval apontando os materiais compósitos como possível alternativa para suprir os gargalos em futuros projetos de engenharia civil.

Linhas de pesquisa: Novos Materiais, Mecânica dos Sólidos e Modelagem Computacional de Estruturas.

Postar um comentário

Observação: somente um membro deste blog pode postar um comentário.