Ciclo de Seminários
O Ciclo de Seminários PESC tem como objetivo trazer palestras acessíveis a um público mais amplo
ministradas por pesquisadores e professores mais experientes. As palestras terão tema e foco variados
podendo ser mais específicas (ex. avanços no contexto de um problema específico) ou mais abrangentes
(ex. desafios de uma área). A apresentação de ideias novas e antigas de diferentes temas contribui de
maneira fundamental para a formação e pesquisa desenvolvida por alunos e professores.
As palestras do Ciclo de Seminários PESC ocorrem em geral uma vez ao mês, mas sempre
quarta-feira às 11h na sala H-324B. Segue a programação confirmada para 2014. Não percam!
Modeling and Predicting the Growth and Death of Websites
Bruno Ribeiro, Postdoctoral Fellow, Carnegie Mellon University (CMU) 19 de março de 2014
Driven by outstanding success stories of Internet startups such as
Facebook and The Huffington Post, recent studies have thoroughly
described their growth. These highly visible online success stories,
however, overshadow an untold number of similar ventures that fail.
The study of website popularity is ultimately incomplete without
general mechanisms that can describe both successes and failures. In
this talk I present a model that is able to describe website
popularity and predict evolution over time. My model is inspired by
the writings of Nobel Laureate Herbert A. Simon. In a 1969 lecture
Simon observed that many information systems were designed as if
information was scarce, when the problem is just the opposite. "A
wealth of information creates a poverty of attention and a need to
allocate that attention efficiently among the overabundance of
information sources that might consume it." My model equations
consider Internet users' attention as a scarce resource that must be
"consumed" by a website. Users' interactions with the website also
create content that consumes the attention of other users. For
instance, if the attention we dedicate to Facebook incites us to
create content that helps Facebook capture a larger share of attention
of our friends, then our friends will also produce more content (on
average), which in turn captures a larger share of our attention. This
positive attention feedback loop drives Facebook user activity up. But
as the attention we are willing to dedicate to Facebook is limited,
our (average) activity eventually stabilizes and remains stable.
Conversely, if the share of our attention consumed by the website is
not able to drive enough attention and content creation from our
friends to keep our current attention level, then the negative
attention feedback drives the website to its death.
Dr. Bruno Ribeiro is a Postdoctoral Fellow at the Carnegie Mellon
University School of Computer Science. He received his B.Sc and M.Sc
from the Federal University of Rio de Janeiro and Ph.D. in 2010 at the
University of Massachusetts Amherst advised by Don Towsley. In
2012-2013 he was a visiting scholar at the Department Physics at
Northeastern University. His interested are in data science, data
mining, complex systems, and statistical models.
|
Network Survivability and Polyhedral Analysis
Ridha Mahjoub, Professeur des universités, Université Paris Dauphine (Paris 9) 9 de abril de 2014
For the past few decades, combinatorial optimization
techniques have shown to be powerful tools for formulating, analysing
and solving problems arising from practical decision situations. In
particular, the polyhedral approach has been successfully applied for
many well known NP-hard problems. The equivalence between separation
and optimization has been behind a big development of this method. The
so-called "Branch and Cut" method, which is inspired from this
equivalence, is now widely used for obtaining optimal and near-optimal
solutions for hard combinatorial optimization problems. In this talk
we present these methods, and discuss some applications to survivable
network design models.
A. Ridha Mahjoub is Professeur Classe Exceptionnelle of
Operations Research and Combinatorial Optimization at Université
Paris-Dauphine, Paris, France. He is also member of the LAMSADE
laboratory, CNRS. Previous positions include full professor at the
University of Brest, France, from 1991 to 1998 and the University of
Clermont-Ferrand, France, from 1998 to 2007. Professor Mahjoub holds
an undergraduate degree in Mathematics from University of Tunis,
Tunisia and a Ph.D. and a Doctorat d'Etat in Operations Research and
Combinatorial Optimization from the University of Grenoble, France.
His research areas include the theory and applications of polyhedral
approaches for modelling, analysing and solving large NP-hard
combinatorial optimization problems, mixed integer programming as well
as complexity and graph theory. A part of his research has recently
focused on the design of cutting plane algorithms for network design
problems. Professor Mahjoub is author and co-author of several papers
that have appeared in leading journals such as Mathematical
Programming, Mathematics of Operations Research, SIAM Journal on
Discrete Mathematics, Discrete Mathematics, Discrete Applied
Mathematics and Networks. He served as co-director of the Mathematics
and Computer Science Department at Université Paris-Dauphine between
2008 and 2013. Dr Mahjoub edited and co-edited books and several
special issues of journals. He currently serves as Editor-in-Chief of
the international journal RAIRO-Operations Research.
|
Uma Breve História da Computação, através dos Tempos
Jayme Luiz Szwarcfiter, Professor Emérito, UFRJ 7 de maio de 2014
Serão apresentados fatos históricos, em ordem cronológica, relacionados à computação, desde a pré-história, até os dias atuais. A apresentação terá como foco central, o personagem principal da computação: o computador. Apesar de o computador consistir tão somente em "uma máquina de fazer contas rapidamente", o seu advento, e mesmo antes dele, mobilizou e continua mobilizando pessoas e nações. Em particular, serão enfatizados dados particulares da história do computador no Brasil. A apresentação será ilustrada com fatos, fotos e materiais. Finalmente, será realizada também uma tentativa de previsão do desenvolvimento futuro da computação, nos próximos anos.
Jayme Luiz Szwarcfiter é Engenheiro Eletrônico, Escola Nacional de Engenharia, Universidade do Brasil, 1967, Mestre em Engenharia de Sistemas e Computação, PESC-COPPE-UFRJ, 1971, e Ph.D, University of Newcastle upon Tyne, Inglaterra, 1975. Realizou pós-doutoramentos nas University of California, Berkeley, EUA,1979-80, University of Cambridge, Inglaterra, 1984-85, e Université de Paris XI, França, 1992-94. É docente da UFRJ desde 1968, com atuação na COPPE, Instituto de Matemática e NCE. Atualmente é Professor Emérito da UFRJ. Seus interesses incluem algoritmos e teoria de grafos.
|
A Inevitável Vitória da Inteligência Artificial
Fabio Cozman, Professor Titular, Universdade de São Paulo 30 de maio de 2014 (sexta às 10h)
Este seminário é baseado em uma mesa redonda ocorrida na Unicamp em
2013, sobre aplicações e futuro da inteligência artificial.
Basicamente, por qualquer métrica que se possa tomar, o
desenvolvimento de técnicas de inteligência artificial (não
necessariamente similares a recursos da inteligência humana), é um
enorme sucesso do ponto de vista tecnológico, econômico e social.
Exemplos como a Google, ou a brasileira Buscapé, confirmam a
importância de técnicas de tradução, interpretação, recomendação,
classificação. Hoje assistimos à chegada de artefatos com capacidade
de aprendizado e decisão que já reconhecemos como inteligentes. A
vitória da tecnologia que nos apresenta auxiliares artificiais
prestativos e, à sua maneira, inteligentes, é inevitável, e nenhum
país pode considerar seu futuro sem uma discussão que inclua essa
tecnologia. Obviamente, devemos nos interessar em compreender essa
nova forma de inteligência que nos rodeia. E como chegamos a esse
ponto? Dois fenômenos foram essenciais nos últimos 15 anos. Primeiro,
o aumento de capacidade computacional e da tecnologia de sensores.
Segundo, a crescente disponibilidade de grandes massas de dados, que
permitem o ajuste fino de modelos complexos. Esse seminário procura
analisar a evolução da IA nos últimos 15 anos, verificar o ponto em
que estamos, e sugerir alguns pontos que merecem atenção tecnológica e
social no futuro.
Fabio G. Cozman é PhD pela Carnegie Mellon University (1997), Professor Titular
da Escola Politécnica da Universidade de São Paulo (USP), e presidente da Comissão
Especial de Inteligência Artificial da SBC.
|
Big Bio Data: Inteligência Computacional a Serviço da Medicina
Carlos Eduardo Pedreira, Professor Adjunto, UFRJ 13 de agosto de 2014
Nas últimas duas ou três décadas assistimos a importantes contribuições das Engenharias e da Física médica à medicina. Entre estes vale a pena citar ressonância magnética e citometria de fluxo. Este último hoje em dia o responsável pelos diagnósticos de linfomas e leucemias (entre outras enfermidades) em todo o mundo. Estes aparelhos aumentaram enormemente a capacidade de se gerar dados para diagnóstico e assim o desafio nos foi devolvido, como processar de forma inteligente toda esta informação de modo a gerar diagnósticos mais precisos, mais confiáveis capazes de detectar as doenças em sua fase inicial. Muitos dos avanços da área médica na próxima década dependem de uma iteração ativa com as áreas quantitativas. Neste seminário abordaremos algumas das possibilidades de contribuição da computação, em especial da inteligência computacional, à medicina. Serão apresentados alguns casos de sucesso no mundo real.
Carlos Eduardo Pedreira é bolsista de Produtividade em Pesquisa do CNPq, nível 1B e Cientista do Nosso Estado da FAPERJ. Obteve o grau de Ph.D. em 1987 pelo Imperial College of Science, Technology and Medicine da Universidade de Londres. É pesquisador visitante na Universidade de Salamanca, Espanha desde 2002. É inventor em diversas patentes no exterior (Estados Unidos, Europa, Austrália e Japão). Seus artigos têm mais de 800 citações. Como orientador recebeu prêmios da Sociedade Brasileira de Matemática Aplicada e Computacional (alunos de graduação) e da BM&F (finalista em concurso de teses de doutoramento). Foi Presidente Fundador da Sociedade Brasileira de Redes Neurais (atual Sociedade Brasileira de Inteligência Computacional). É atualmente membro do board do consórcio EuroFlow. Recebeu o Prêmio Santander de Ciência e Inovação de 2006 e o Prêmio Nicola Albano (Sociedade Brasileira de Pediatria) de 2010.
|
Efficient Identification and Computation of Link Metrics via Network Tomography
Don Towsley, Distinguished University Professor, University of Massachusetts Amherst 27 de agosto de 2014
In this talk I address the problem of identifying link metrics based on
end-to-end path measurements. It is easily shown that the number of
measurement paths must be at least the number of links. Furthermore,
these paths must produce a set of linearly independent equations in the
unknown link metrics. The first part of the talk will focus on
characterizing these conditions in terms of those the network
topology must exhibit and the number/placement of monitors needed to
make these end-to-end measurements. This includes solving the
problem of determining the minimum number of monitors needed, their
placement in an arbitrary network, and the selection of paths.
In the second part of the talk we look at the related problem of "failure
localization". Here the problem is that of identifying, in the case of
a network failure, the link that actually failed. We characterize
topological conditions that the network must satisfy in order to identify
up to k failed links.
Dr. Towsley's research interests include network measurement, modeling, and analysis. Towsley currently serves as Editor-in-Chief of the IEEE/ACM Transactions on Networking and on the editorial boards of Journal of the ACM and IEEE Journal of Selected Areas in Communications. He is currently the Chair of the IFIP Working Group 7.3 on computer performance measurement, modeling, and analysis. He has also served on numerous editorial boards including those of IEEE Transactions on Communications and Performance Evaluation. He has been active in the program committees for numerous conferences including IEEE Infocom, ACM SIGCOMM, ACM SIGMETRICS, and IFIP Performance conferences for many years, and has served as Technical Program Co-Chair for ACM SIGMETRICS and Performance conferences. He has received the 2008 ACM SIGCOMM Award, the 2007 IEEE Koji Kobayashi Computers and Communications Award, the 2007 ACM SIGMETRICS Achievement Award, the 1999 IEEE Communications Society William Bennett Award, and several conference /workshop best paper awards. He is also the recipient of the University of Massachusetts Chancellor's Medal and the Outstanding Research Award from the College of Natural Science and Mathematics at the University of Massachusetts. He is one of the founders of the Computer Performance Foundation.
|
Técnicas de dualidade para problemas não-convexos
Regina Burachik, Associate Professor, University of South Australia 3 de setembro de 2014
Nesta palestra iremos apresentar uma revisão de técnicas de dualidade para problemas
não convexos, baseadas no uso de Lagrangianos aumentados. Concentramos-nos no assim
chamado "sharp Lagrangian". Apresentamos as vantagens desta técnica de
dualidade, e descrevemos uma possível forma de aproveitar a estrutura
convexa que se ganha pelo uso de dualidade. O método de subgradiente e
usado para resolver o problema dual, e a escolha de diferentes passos e
também apresentada. Na ultima parte de palestra, apresentamos resultados
de penalizarão exata e condições nas quais uma solução do problema
original pode ser obtida. Aplicações que demonstram a utilidade deste
enfoque a problemas numéricos concretos também serão apresentadas.
Regina Burachik is an Associate Professor at University of South
Australia, and her current research interests are nonsmooth, convex, and
nonconvex optimization. She has also extensive work in the development of
algorithms for nonconvex minimization. Her PhD thesis introduced and
analyzed solution methods for variational inequalities, the latter being a
generalization of the convex constrained optimization problem. She
recently co-authored the Springer book "Set-Valued Analysis and Monotone
Mappings". Regina is an associate editor of several journals from the area
of optimization, including SIAM Journal on Optimization, Applied
Mathematics and Computations, Communications in Mathematical Analysis,
TOP, and the Australian and New Zealand Journal for Industrial
Mathematics. Regina enjoys learning, teaching, supervising and
collaborating with others. Her main and only reason for doing math is
pleasure.
|
Textual Entailment: Bridging Logic and Language
Valeria de Paiva, Senior Research Scientist, Nuance Communications, USA 1 de outubro de 2014
Recent years have seen a surge in research of text processing applications that perform semantic-oriented inference about concrete text meanings and their relationships. Even though many applications face similar underlying semantic problems, these problems are usually addressed in an application oriented manner, which makes it hard to see whether progress is being made or not. Recognizing Textual Entailment (RTE) has been proposed some ten years ago as a solution to this problem of measuring semantic progress in an application independent fashion.
RTE is a generic task that captures major semantic inference needs across many natural language processing applications such as Question Answering, Information Retrieval, Information Extraction, and Text Summarization. This task requires to recognize, given two text fragments, whether the meaning of one text is entailed (can be inferred) from the other text. Several international competitions have been run, first by the PASCAL (Pattern Analysis, Statistical Modelling and Computational Learning) EU-project then by NIST(National Institute of Standards and Technology) via the TAC (Text Analysis Conference) to focus efforts on general textual inference capabilities, but without constraining participants to use a specific representation or reasoning approach. In this talk we discuss the challenges of textual entailment, some of the systems developed for this task and then go on to describe our own attempts at solutions, first with the Bridge system from Xerox PARC, using TIL (Textual Inference Logic), more recently in the context of rewriting systems. We are taking our first steps towards a rewrite framework for textual inference using TIL, implemented in the computational tool Maude and demonstrate by example that how this implementation can be used for solving some instances of the textual inference problem. This is joint work with Vivek Nigam, from UF Paraiba.
Valeria de Paiva é matemática, lógica e cientista da computação, baseada em Sunnyvale, CA, EUA. Trabalha como Pesquisadora Sênior no novo Laboratório de Inteligência Artificial e Entendimento de Linguagem Natural da Nuance Communications, usando lógica para melhorar comunicações com sistemas computacionais. Antes da Nuance foi pesquisadora, por muitos anos, do Laboratório de Sistemas Inteligents do PARC (Palo Alto Research Center) e também foi analista de buscas em Cuil, e em Rearden Commerce, atualmente Deem. Tem doutorado pelo Depto de Matemática Pura da Universidade de Cambridge, UK, por seu trabalho com "Categorias Dialéticas" e vem desde então se dedicando as abordagens lógicas e matemáticas aos problemas computacionais. Faz parte do corpo editorial de "Theoria and Applications of Categories", "Logical Methods in Computer Science" e da revista "Logica Universalis". É também "Honorary Research Fellow" da "School of Computer Science, University of Birmingham" (UK), onde foi Professora Assistente. Recentement foi professora de lógica nas universidades de Stanford e Santa Clara, na Califórnia.
|
MDA-based teaching and research in Software Engineering
Ludwik Kuzniarz, Senior Lecturer, Blekinge Institute of Technology, Suécia 8 de outubro de 2014
The goal of this presentation is to introduce the background of MDA (Model-Driven Architecture),
a technology aimed at helping in efficient creation of software system, followed by showing
and discussing sample usages of MDA in the teaching and research. The
presentation will be done in the context of Blekinge Institute of Technology -
bachelor level course and empirical research sample - and will based on my
research activity and experience there.
Ludwik Kuzniarz is Associate Professor of Software Engineering at Blekinge
Institute of Technology, Karlskrona, Sweden. He received his MSc in
Mathematics form the University of Wroclaw, Poland and PhD in Computer
Science at the Wroclaw University of Technology. His current interests are on
practical aspects related to the realization of MDA and application of empirical
methods in Software Engineering.
|
Boundary properties of the Satisfiability problem
Vadim V. Lozin, Associate Professor, University of Warwick, Inglaterra 5 de novembro de 2014
The satisfiability problem is known to be NP-complete in general and
for many restricted instances, such as formulas with at most 3 variables
per clause and at most 3 occurrences per variable, or planar formulas.
The latter example refers to graphs representing satisfiability instances.
These are bipartite graphs with vertices representing clauses and variables,
and edges connecting variables to the clauses containing them.
Finding the strongest possible restrictions under which the problem remains NP-complete is important for at least two reasons. First, this can make it easier to establish the NP-completeness of new problems by allowing easier transformations. Second, this can help clarify the boundary between tractable and intractable instances of the problem. In this talk, we address the second issue and reveal the first boundary property of graphs representing satisfiability instances.
Vadim Lozin received his Ph.D. in Theoretical Computer Science in 1995
from the University of Nizhny Novgorod, Russia. In 2000, he moved to
Rutgers University (USA) and in 2007, to the University of Warwick (UK),
where he now is an Associate Professor (Reader) of Mathematics. He also
held a number of short-term visiting academic positions in Sweden, Portugal,
Switzerland, Canada, Germany, Saudi Arabia, France. He is an author of more
than 100 publications in the area of Discrete Mathematics and Theoretical
Computer Science. Six Ph.D. students defended their dissertations under
the direction of Vadim Lozin. He is an Associate Editor of the journal
"Discrete Applied Mathematics", Managing Editor of the journal "Electronic
Notes in Discrete Mathematics", and a member of the editorial board of
the journal "Discussiones Mathematicae Graph Theory".
|
Efficient Cloud Resource Management
Danny Raz, Bell Labs and Technion, Israel 19 de novembro de 2014 Resumo - Slides
One of the big promises of Cloud Computing is the ability to provide high quality services at a low cost, which is a result of sharing the resources among many users. However, the actual ability to provide these services at a low cost critically depends on the efficiency of resource utilization in the Cloud. In this talk I will concentrate on this important aspect of cloud computing and describe several recent results that can be used to increase resource utilization in the Cloud. The results cover a variety of resource allocation schemes - from capacity planning to load balancing and elasticity, where the relevant time frame also varies from months and years - the time to build a new data centers to milliseconds - the time for load balance a job request.
The talk is based on joint work with Rami Cohen, Lian Lewin-Eytan, Amir Nahir, Seffi Naor, Ariel Orda, and Assaf Rappaport.
Danny Raz received his Ph.D. in 1996 from the Faculty of Mathematics and Computer Science, The Weizmann Institute of Science. After that, he was a visiting lecturer at the U.C. Berkeley and a post-doctoral fellow at the International Computer Science Institute, (ICSI) Berkeley, CA. Before joining the CS faculty at Technion, Israel, Prof. Raz was a Member of the Technical staff, at the Networking Research Laboratory at Bell labs, Lucent Technologies. In 2008 he spent a year on a Sabbatical at Google Mountain View. Recently Danny Raz returned to Bell Labs and became the director of the new Bell Labs site in Israel, focused on "distributed cloud networking", the new paradigm in which Cloud and SDN are used to virtualize many of the services currently deployed over dedicated hardware.
|
Um algoritmo fortemente tempo-polinomial para o problema de factibilidade de desigualdades lineares
Paulo Roberto Oliveira, Professor Titular, UFRJ 26 de novembro de 2014
Foi obtido um algoritmo fortemente polinomial para o problema da factibilidade de sistemas de
desigualdades lineares, isto é, obter x em R^n, tal que Ax>0, x>0, onde A é uma matriz arbitrária m x n. O
algoritmo requer O(p) iterações e O(m^2(n+p)) operações aritméticas para assegurar que a distância entre a
solução e a iteração seja 10^{-p}. Não é necessária a inversão de matrizes. A extensão para problemas não-
homogêneos é também descrita.
Possui graduação em Engenharia Eletrônica de Telecomunicações pela Pontifícia Universidade Católica
do Rio de Janeiro (1968) e doutorado em Mathématiques de La Décision - Université de Paris IX (Paris-
Dauphine) (1977). Professor Titular da Universidade Federal do Rio de Janeiro, Titular A na COPPE.
Orientou 24 dissertações de mestrado e 32 teses de doutorado. Coordenou o convênio DINTER, com as
Universidades UFPI e UESPI. Revisor dos periódicos: Communications in Applied Analysis, Journal of
Convex Analysis, Journal of Global Optimization, Journal of Mathematical Analysis and Applications,
Mathematical and Computer Modelling, Journal of Optimization Theory and Applications, SIAM Journal
on Optimization. Tem experiência na área de Ciência da Computação, com ênfase em Métodos de
Otimização, atuando principalmente nos seguintes temas: algoritmos de pontos interiores, otimização em
variedades riemannianas, métodos proximais, complexidade.
|
Hyperbolic Smoothing Clustering Method
Adilson Elias Xavier, Professor Adjunto, UFRJ 3 de dezembro de 2014
A palestra considera os trabalhos de pesquisa desenvolvidos pelo autor nos
últimos 10 anos contemplando a resolução de problemas de Agrupamento (Clustering).
Ortodoxamente, os problemas de agrupamento são tratados por dois enfoques clássicos: métodos hierárquicos ou métodos particionais, entre esses o algoritmo mais amplamente usado: k-means. O Hyperbolic Smoothing Clustering Method (HSCM) se constitui em uma metodologia pioneira para resolução de problemas de agrupamento (clustering), desde que usa uma abordagem completamente contínua. Primeiramente será apresentado o enfoque HSCM em sua versão inicial, que está descrita na publicação Xavier (2010). A seguir, será apresentado um esquema de poda (pruning) que engendra uma aceleração do algoritmo, que o torna centenas e até milhares de vezes mais rápido, preservando a mesma robustez e consistência, Xavier & Xavier (2011). Como complemento, serão exibidos resultados numéricos obtidos pelo AHSCM, versão do algoritmo resultante de conjunto de aprimoramentos, na resolução de conjunto canônico dos problemas teste universalmente usado para validação e comparação de algoritmos de clustering. Esses resultados mostram, de forma insofismável, a performance superior do algoritmo proposto em comparação aos mais poderosos algoritmos existentes na literatura, considerando os diferentes critérios de: Robustez; Eficiência, Consistência; Capacidade de resolver problemas de grande dimensão. Finalmente, será comentado en passant outras aplicações da abordagem Hyperbolic Smoothing na resolução de problemas de Facilities Location, Hub Location, Covering 2D e 3D, Distance Geometry e Packing.
Adilson Elias Xavier é professor do PESC-COPPE da linha Otimização, com interesse em Programação
Não-Linear, Programação Linear , Programação Não-Linear, Análise de Agrupamentos,
Classificação, Recobrimento, Problemas de Localização, Logística, Modelos
Hidrológicos e Implementação de Softwares Matemáticos.
Tem como tema de pesquisa central três técnicas: "Penalização Hiperbólica", "Lagrangeano Hiperbólico" e "Suavização Hiperbólica". Desenvolveu o método da "Penalização Hiperbólica", há cerca de 35 anos, tendo por objetivo a resolução do problema geral da programação não-linear sujeito a restrições de desigualdade. O método trabalha com uma função que apresenta a singular característica de possuir perfeita continuidade em suas derivadas, de qualquer ordem, em todo o domínio dos reais, ou seja, é de classe em todo domínio real. O método "Lagrangeano Hiperbólico" é resultado da exploração teórica das ligações entre o método da Penalização Hiperbólica e a Função Lagrangeana . A técnica de "Suavização Hiperbólica" basicamente consiste na utilização da função penalidade hiperbólica para efetuar a transformação de Problemas de Programação Não-Diferenciáveis em problemas completamente diferenciáveis (classe). Destarte, torna-se possível a utilização de técnicas de minimização irrestrita consagradamente mais poderosas, que se utilizam das informações das derivadas de primeira e segunda ordem. A técnica de Suavização Hiperbólica foi originalmente utilizada na Calibração Automática de Modelos Hidrológicos. Atualmente, tem sido utilizada com resultados inauditos na resolução de uma ampla classe de Problemas de Programação Não- Diferenciáveis como: Minimax, Clustering, Facility Location, Hub Location, Covering 2D e 3D, Distance Geometry e Packing. Complementarmente, tem se dedicado ao desenvolvimento de aplicações para: Petrobras, CEPEL, Eletrobras, ONS, Furnas, Embratel e Secretaria Saúde Estado RJ. |
What is Sports Engineering?
Simon Choppin, Research Fellow, Sheffield Hallam University, Inglaterra 10 de dezembro de 2014
Technology is a big part of sport, from the equipment we use to the sensors which measure us. The Sports Engineer works with this technology to enhance performance and increase sports participation. The Sports Engineer is interested in the performance of the Brazuca football, how sensors can be woven into clothing and equipment and how the latest materials can produce lighter and faster bicycles.
This lecture, by Dr Simon Choppin from the Centre for Sports Engineering Research (CSER) at Sheffield Hallam University, looks at the world of Sports Engineering, showing how you can get involved. In addition to exploring several CSER projects, Simon will showcase the Sports Engineering journal, an international conference and opportunities for further study with a Masters degree in Sports Engineering and funded PhD research. The Sports Engineering community is keen to collaborate with students and research in South America. With the Olympics visiting Rio de Janeiro in two years, this is an ideal opportunity for Sports Engineering to come to Brazil!
Dr Simon Choppin is a research fellow at the Centre for Sports Engineering Research. His current interests include the novel use of consumer depth cameras in biomechanics. Simon's focus is on the algorithms and processes which manipulate the three-dimensional point data generated by depth cameras. In addition to this he has developed expertise in physical and statistical modelling, optimisation processes and ball aerodynamics.
At Nottingham University he completed a Master degree in Mechanical Engineering with Mathematics before moving to Sheffield to study for a PhD. In his PhD at Sheffield University he worked closely with the International Tennis Federation to develop a novel, 3D method of racket and ball tracking, which was used at a Wimbledon qualifying tournament. His subsequent paper, presented at the Tennis Science and Technology Conference 2007, was awarded the Howard Brody Award for outstanding academic contribution. Simon is a keen science communicator and has taken part in several high profile events promoting the image of science and technology, he was awarded a British Science Association Media Fellowship in 2009 in which he worked with the Guardian newspaper. In 2011 he was awarded a fellowship with the Software Sustainability Institute. He edits and contributes to the CSER blog, and is an associate editor of the Sports Engineering journal. |
Entre em contato e envie seus comentários e sugestões, inclusive de potenciais palestrantes.
Organizado por Daniel R. Figueiredo.