<br>Call for Participation for the<br>



<br>



THIRD SEMANTIC ROBOT VISION CHALLENGE - A Special Track of the ISVC 2009<br>



<br>



<a href="http://www.semantic-robot-vision-challenge.org/" target="_blank">http://www.semantic-robot-vision-challenge.org</a><br>



<br>



<br>



The Semantic Robot Vision Challenge (SRVC) is a research competition
that is designed to advance the state of the art in embodied vision,
active scene understanding, and automatic acquisition of knowledge from
the Internet. This competition is an indoor robotic photo scavenger
hunt. Teams will be required to demonstrate a robot that has the
ability to:<br>



<br>



1. Read and parse a textual list of generic or specific objects to be
found in the environment. Examples from 2008 include “frying pan”,
“upright vacuum cleaner” and “Ritz Crackers”.<br>



<br>



2. Autonomously connect to the Internet and build an object
classification database from images or other information related to the
listed objects, in a set amount of time.<br>



<br>



3. Autonomously navigate and search the unknown environment with the
task of taking snapshots of the listed objects using the data acquired
from the Internet.<br>



<br>



4. Return an image of each object type containing a single bounding box around the pictured object.<br>



<br>



Unlike with computer vision competitions, participants must address
many issues of embodied vision. Robots must recognize objects in
lighting conditions and configurations that can give them very unusual
appearance, but can use navigation to look at objects from angles that
are close to the canonical views used in Internet images. Also, as in
the real world, scene context can be used to guide the search for
objects to areas which make the most sense for them to be found (e.g. a
stapler is usually found on a desk rather than on the floor or on a
wall). In this competition, objects in the scene will be placed in a
way that should improve recognition results for robots that take
advantage of scene context understanding.<br>



<br>



Teams can choose to participate in one of two different leagues:<br>



<br>



A. Robot league: Teams bring their own robot to participate in the event.<br>



<br>



B. Software league: Teams bring only a computer to run their software.
The visual data is collected immediately before the event by a robot
run by the organizers.<br>



<br>



We encourage anyone in these research fields to participate and help us
to advance the state of the art in embodied vision and scene
understanding. At the end of the competition, we will hold a workshop
so that the specific technical aspects of each entry can be presented
and discussed. The competition will be held at the 5th International
Symposium on Visual Computing (ISVC), which takes place in Las Vegas,
Nevada, from November 30th to December 2nd. For details see: <a href="http://www.isvc.net/" target="_blank">http://www.isvc.net/</a><br>



<br>



<br>



IMPORTANT DATES<br>



<br>



Qualification Material Submission Deadline:  September 14, 2009<br>



Acceptance Notification:                              September 28, 2009<br>



ISVC09 Symposium:                                   November 30 - December 2, 2009<br>



Competition Date:                                       December 1, 2009<br>



<br>



<br>



See <a href="http://www.semantic-robot-vision-challenge.org/" target="_blank">http://www.semantic-robot-vision-challenge.org</a>
for more details on participation and qualification. If interested,
subscribe to our email list! Please send an email to Paul Rybski and
Daniel DeMenthon if you would like to participate.<br>



<br>



Organizing committee:<br>



<br>



Paul E. Rybski (<a href="mailto:prybski@cs.cmu.edu" target="_blank">prybski@cs.cmu.edu</a>), Carnegie Mellon University, USA<br>



Daniel DeMenthon (<a href="mailto:Daniel.DeMenthon@jhuapl.edu" target="_blank">Daniel.DeMenthon@jhuapl.edu</a>), Johns Hopkins University, USA<br>



Cornelia Fermuller (<a href="mailto:fer@umiacs.umd.edu" target="_blank">fer@umiacs.umd.edu</a>), University of Maryland, USA<br>



Pooyan Fazli (<a href="mailto:pooyanf@cs.ubc.ca" target="_blank">pooyanf@cs.ubc.ca</a>), University of British Columbia, Canada<br>



Ajay Mishra (<a href="mailto:mishraka@umiacs.umd.edu" target="_blank">mishraka@umiacs.umd.edu</a>), University of Maryland, USA<br>



Luis Seabra Lopes (<a href="mailto:lsl@ua.pt" target="_blank">lsl@ua.pt</a>), Universidade de Aveiro, Portugal<br>



Florian Roehrbein (<a href="mailto:roehrbei@informatik.uni-bremen.de" target="_blank">roehrbei@informatik.uni-bremen.de</a>), Universitaet Bremen, Germany<br>



David Gustafson (<a href="mailto:dag@ksu.edu" target="_blank">dag@ksu.edu</a>), Kansas State University, USA<br clear="all">


<br><br><br><br clear="all"><br>-- <br>____________________________________________________________________<br><br>Pooyan Fazli                     <br>PhD Student                  <br>Department of Computer Science,     Phone:  +1 (778) 883-1360<br>

University of British Columbia,           <a href="mailto:pooyanf@cs.ubc.ca">pooyanf@cs.ubc.ca</a><br>Vancouver, B.C., Canada V6T 1Z4     <a href="http://www.cs.ubc.ca/~pooyanf">http://www.cs.ubc.ca/~pooyanf</a> <br>____________________________________________________________________<br>