]> git.parisson.com Git - telemeta-doc.git/commitdiff
AES 53 conference paper : Cut down to fit 2 pages
authorThomas Fillon <thomas@parisson.com>
Fri, 6 Dec 2013 16:04:12 +0000 (17:04 +0100)
committerThomas Fillon <thomas@parisson.com>
Fri, 6 Dec 2013 16:04:12 +0000 (17:04 +0100)
AES_53_2013/aes53_Telemeta.bib
AES_53_2013/aes53_Telemeta.tex

index 376283f46d3bde10da3f84887760673124ac7df6..aa2a0b0c4da49345c28d121a2ca8694febd91e9f 100644 (file)
@@ -1,24 +1,21 @@
 @Misc{OAI-PMH,
   key =                 "OAI-PMH",
-  url =                 "http://www.openarchives.org/pmh/",
+  howpublished = {\url{http://www.openarchives.org/pmh/}},
   title =       "Open Archives Initiative Protocol for Metadata
                   Harvesting"
 }
 
-
 @Misc{DublinCore,
   key =                 "DublinCore",
   title =       "{Dublin Core} Metadata Initiative",
-  url =                 "http://dublincore.org/"
+  howpublished = {\url{http://dublincore.org/}}
 }
 
-
-
 @Misc{telemetaCREM,
   key =         "telemetaCREM",
   title =       "Archives sonores du {CNRS} - {Musée de l'Homme}",
-  url =                 "http://archives.crem-cnrs.fr"}
-
+  howpublished = {\url{http://archives.crem-cnrs.fr}}
+}
 
 @PhdThesis{BrossierPhD,
   author =      {Paul Brossier},
@@ -29,7 +26,6 @@
   year =        2006
 }
 
-
 @inproceedings{yaafe_ISMIR2010,
   author =      {Mathieu, Benoît and Essid, Slim and Fillon, Thomas
                   and Prado, Jacques and Richard, Gaël},
   pages =       {441-446},
   publisher =   {International Society for Music Information
                   Retrieval},
-  url =
-                  {http://ismir2010.ismir.net/proceedings/ismir2010-75.pdf}
+  howpublished = {\url{http://ismir2010.ismir.net/proceedings/ismir2010-75.pdf}}
 }
 
 @Misc{vamp-plugins,
   key =                 {vamp},
   title =       {The {Vamp} audio analysis plugin system},
-  url =                 {http://www.vamp-plugins.org}
+  howpublished = {\url{http://www.vamp-plugins.org}}
 }
-
index 80c38e4f21ba2c858525027a75ee8b6a9e267d6d..5f0694c0189114334bfc7cb400b6d337ac18249d 100644 (file)
@@ -7,12 +7,14 @@
 \r
 \usepackage{xcolor}\r
 %\usepackage{hyperref} % Apparemment pas compatible avec le style AES !!\r
-\r
+\usepackage{url}\r
 \usepackage[utf8]{inputenc}\r
 \usepackage[T1]{fontenc}\r
 \r
-%\newcommand{\keywords}[1]{\par\addvspace\baselineskip\r
-%\noindent\keywordname\enspace\ignorespaces#1}\r
+\usepackage{enumitem}\r
+\setlist{nosep}\r
+\r
+\setlength{\parskip}{0pt}\r
 \r
 %----------\r
 %  Header\r
 \r
 \r
 % first the title is needed\r
-\title{Telemeta, a web audio platform for ethnomusicological sound archives}\r
+\title{Telemeta : open web audio platform for sound archives in the use case of ethnomusicology}\r
 \r
 % a short form should be given in case it is too long for the running head\r
-\shorttitle{Telemeta, a web audio platform for ethnomusicological sound archives}\r
+\shorttitle{Telemeta : open web audio platform for sound archives}\r
 \r
 \author{\r
   Thomas Fillon\aff{1,2},\r
@@ -40,7 +42,7 @@
 CREM, LESC, UMR CNRS 7186, MAE, Université Paris Ouest Nanterre La Défense,\r
 21 Allée de l'Université - 92023 Nanterre}\r
 \r
-\correspondence{Thomas Fillon and Guilaume Pelelerin}{thomas.fillon@parisson.com, guillaume.pellerin@parisson.com}\r
+\correspondence{Thomas Fillon and Guilaume Pellerin}{thomas.fillon@parisson.com, guillaume.pellerin@parisson.com}\r
 \r
 \lastnames{Fillon, Pellerin, Brossier, Simonnot}\r
 \r
@@ -49,40 +51,40 @@ CREM, LESC, UMR CNRS 7186, MAE, Université Paris Ouest Nanterre La Défense,
 \r
 \r
 \begin{abstract}\r
-\emph{Telemeta} is an open-source audio web Content Management System (CMS) dedicated to digital sound archives secure storing, indexing and publishing. The demonstration presents the features of this platform in the context of \emph{ethnomusicological} research. It focuses on the enhance and collaborative user-experience in accessing audio items and their associated metadata and on the possibility for the expert user to further enrich those metadata. \emph{Telemeta} also provides integrated audio signal processing tools for automatic analysis of sound items.\r
-%\keywords{Sound archives, Metadata, Ethnomusicology, Database, Audio labelling, Web platform}\r
-\end{abstract}\r
-\r
+\emph{Telemeta} is a fully-operational open-source web audio platform dedicated to digital sound archives secure storing, indexing and publishing. It focuses on the enhance and collaborative user-experience in accessing audio items and their associated metadata and on the possibility for the expert users to further enrich those metadata.\r
 \r
+Telemeta architecture relies on \emph{TimeSide}, an open audio processing framework written in Python which provides a smart embeddable HTML audio player together with decoding, encoding and streaming methods for various formats. TimeSide also includes a set of audio analysis plugins and additionally wraps several audio features extraction libraries to provide automatic annotation, segmentation and musicological analysis.\r
 \r
+The demonstration presents the features of this platform in the context of ethnomusicological research.\r
+\end{abstract}\r
 \r
 \begin{document}\r
 \maketitle\r
 \r
 \section{Introduction}\r
 \r
-  In social sciences like anthropology and linguistics, researchers have to work on multiple types of multimedia documents such as photos, videos, sound recordings or databases. The need to easily access, visualize and annotate such materials can be problematic given their diverse formats, sources and given their chronological nature.\r
-  With this in mind, some laboratories\footnote{The Research Center on Ethnomusicology (CREM), the Musical Acoustics Laboratory (LAM, UMR 7190) and the sound archives of the Mediterranean House of Human Sciences (MMHS)} involved in ethnomusicological research have been working together on that issue.\r
% In social sciences like anthropology and linguistics, researchers have to work on multiple types of multimedia documents such as photos, videos, sound recordings or databases. The need to easily access, visualize and annotate such materials can be problematic given their diverse formats, sources and given their chronological nature.\r
+  %With this in mind, some laboratories\footnote{The Research Center on Ethnomusicology (CREM), the Musical Acoustics Laboratory (LAM, UMR 7190) and the sound archives of the Mediterranean House of Human Sciences (MMHS)} involved in ethnomusicological research have been working together on that issue.\r
 \r
-  The CREM laboratory and Parisson, a company specialized in the management of audio databases, have been developing an innovative, collaborative and interdisciplinary open-source web-based multimedia platform since 2007. This platform, \emph{Telemeta} is designed to fit the professional requirements from both sound archivists and researchers in ethnomusicology. The first prototype of this platform has been online\footnote{Archives sonores du CNRS, Musée de l'Homme, http://archives.crem-cnrs.fr} since 2008.\r
+  In the context of ethnomusicological research, the Research Center on Ethnomusicology \r
+(CREM) and Parisson, a company specialized in the management of audio databases, have been developing an innovative, collaborative and interdisciplinary open-source web-based multimedia platform since 2007. This platform, \emph{Telemeta} is designed to fit the professional requirements from both sound archivists and researchers in ethnomusicology. The first prototype of this platform has been online\footnote{Archives sonores du CNRS, Musée de l'Homme, http://archives.crem-cnrs.fr} since 2008.\r
 \r
  \section{Telemeta}\label{sec:Telemeta}\r
  \subsection{Web audio content management features and architecture}\r
- Telemeta\footnote{http://telemeta.org} is a free and open source\footnote{Telemeta code is available under the CeCILL Free Software License Agreement \texttt{http://cecill.info/licences/Licence\_CeCILL\_V2-en.html}} web audio content management system which introduces efficient and secure methods for back-uping, indexing, transcoding, analysing and publishing any digitalized audio file with its metadata. \r
+ Telemeta\footnote{http://telemeta.org} is a free and open source\footnote{Telemeta code is available under the CeCILL Free Software License Agreement \texttt{http://cecill.info/licences/Licence\_CeCILL\_V2-en.html}} web audio platform which introduces efficient and secure methods for back-uping, indexing, transcoding, analysing and publishing any digitalized audio file with its metadata. \r
 \r
-An overview of the Telemeta's web interface is illustrated in Figure~\ref{fig:Telemeta}\r
-\begin{figure}\r
-  \centering\r
-  \includegraphics[width=0.95\linewidth]{img/telemeta.png}\r
-  \caption[1]{Screenshot excerpt of the \emph{Telemeta} web interface}\r
-   \label{fig:Telemeta}\r
-\end{figure}\r
+An overview of the Telemeta's web interface is illustrated in Figure~\ref{fig:Telemeta}\r
+\begin{figure}\r
+  \centering\r
+  \includegraphics[width=0.95\linewidth]{img/telemeta.png}\r
+  \caption[1]{Screenshot excerpt of the \emph{Telemeta} web interface}\r
+   \label{fig:Telemeta}\r
+\end{figure}\r
 \r
 Telemeta is ideal for professionals who wants to easily organize, backup, archive and publish documented sound collections of audio files, CDs, digitalized vinyls and magnetic tapes over a strong database, in accordance with open web standards. \r
 \emph{Telemeta} architecture is flexible and can easily be adapted to particular database organization of a given sound archives. \r
 \r
 The main features of \emph{Telemeta} are:\r
-\r
 \begin{itemize}\r
 \item \emph{Pure HTML} web user interface including high level \emph{search engine}\r
 \item Smart \emph{workflow management} with contextual user lists, profiles and rights\r
@@ -100,23 +102,25 @@ Dynamically handling metadata in a collaborative manner optimises the continuous
 The compatibility with other systems is facilitated by the integration of the metadata standards protocols \emph{Dublin Core} and \emph{OAI-PMH} (Open Archives Initiative Protocol for Metadata Harvesting) \cite{DublinCore,OAI-PMH}.\r
 \r
 Metadata provide two different kinds of information about the audio item: contextual information and annotations.\r
+\vspace{-0.4cm}\r
 \r
 \paragraph{Contextual Information}\r
 In ethnomusicology, contextual information could be geographic, cultural and musical. It could also store archive related information and include related materials in any multimedia format.\r
-\r
+\vspace{-0.4cm}\r
 \paragraph{Annotations and segmentation}\r
 Metadata also consist in temporal information such as a list of \emph{time-coded markers} associated with annotations and a list of of \emph{time-segments} associated with labels. The ontology for those labels is relevant for ethnomusicology (e.g. speech versus singing voice segment, chorus, ...).\r
 It should be noted that annotations and segmentation can be done either by a human expert or by some automatic signal processing analysis (see Section~\ref{sec:Timeside}).\r
 \r
-\r
 \section{TimeSide}\label{sec:Timeside}\r
-One specificity of the Telemeta architecture is to rely on an external component, \emph{TimeSide}, that offers audio player integration together with audio signal processing analysis capabilities. Figure~\ref{fig:TimeSide_Archi} illustrates the overall architecture of \emph{TimeSide}.\r
+One specificity of the Telemeta architecture is to rely on an external component, \emph{TimeSide}\footnote{\url{https://github.com/yomguy/TimeSide}}, that offers audio player web integration together with audio signal processing analysis capabilities. \r
+\r
+% Figure~\ref{fig:TimeSide_Archi} illustrates the overall architecture of \emph{TimeSide}.\r
 \r
-\begin{figure}[htbp]\r
-  \centering\r
-  \includegraphics[width=0.95\linewidth]{img/timeside_schema.pdf}\r
-  \caption{TimeSide architecture (see \texttt{https://code.google.com/p/timeside/})}\label{fig:TimeSide_Archi}\r
-\end{figure}\r
+\begin{figure}[htbp]\r
+  \centering\r
+  \includegraphics[width=0.95\linewidth]{img/timeside_schema.pdf}\r
+  \caption{TimeSide architecture (see \texttt{https://code.google.com/p/timeside/})}\label{fig:TimeSide_Archi}\r
+\end{figure}\r
 \r
 \r
 \subsection{Audio management}\r
@@ -132,18 +136,18 @@ TimeSide provides the following main features:
 \end{itemize}\r
 \r
 \subsection{Audio features extraction}\r
-TimeSide incorporates some state-of-the-art audio feature extraction libraries such as \texttt{http://aubio.org}{Aubio}, \texttt{http://yaafe.sourceforge.net}{Yaafe} and \texttt{http://www.vamp-plugins.org}{Vamp plugins} \cite{brossierPhD,yaafe_ISMIR2010,vamp-plugins}.\r
-Given the extracted features, every sound item in a given collection can be automatically analyze. The results of this analysis can be displayed as a support to ethnomusicological studies.\r
+TimeSide incorporates some state-of-the-art audio feature extraction libraries such as Aubio\footnote{\url{http://aubio.org/}}, Yaafe\footnote{\url{http://yaafe.sourceforge.net}} and Vamp plugins\footnote{ \url{http://www.vamp-plugins.org}} \cite{brossierPhD,yaafe_ISMIR2010,vamp-plugins}.\r
+Given the extracted features, every sound item in a given collection can be automatically analyze. The results of this analysis can be stored in a scientific file format (\emph{Numpy}, \emph{HDF5}) and serialized to the web browser through commons markup languages (\emph{xml}, \emph{json}, \emph{yaml}).\r
 Further works lead by the DIADEMS project will incorporate advance Music Information Retrieval methods in order to provide automatic annotation, segmentation and similarity analysis.\r
-\vspace{-0.2cm}\r
+\r
 \section{Conclusion - Purpose of the demonstration}\vspace{-0.1cm}\r
-The demonstration presents the features offered by \emph{Telemeta} as detailed in Section~\ref{sec:Telemeta} in the context of ethnomusicological sound archiving \cite{telemetaCREM}. It focuses on the enhance and collaborative user-experience when accessing audio items and their associated metadata, and on the possibility for the expert user to further enrich those metadata.\r
+The demonstration presents the features offered by \emph{Telemeta} as detailed in Section~\ref{sec:Telemeta} in the context of ethnomusicological sound archiving.%\cite{telemetaCREM} \r
+It focuses on the enhance and collaborative user-experience when accessing audio items and their associated metadata, and on the possibility for the expert user to further enrich those metadata.\r
 Another goal of this demonstration is to present the integrated audio analysis tools described in Section~\ref{sec:Timeside}.\r
-\r
-\r
+\vspace{-0.2cm}\r
 \section*{Acknowledgments} \r
-The authors would like to thank all the people that have been involved in \emph{Telemeta} specification and development or have provide useful input and feedback. \r
-The project has been partially funded by the French National Centre for Scientific Research (CNRS), the French Ministry of Culture and Communication, the TGE Adonis Consortium, and the Centre of Research in Ethnomusicology (CREM).\r
+{\small The authors would like to thank all the people that have been involved in \emph{Telemeta} specification and development or have provide useful input and feedback. \r
+The project has been partially funded by the French National Centre for Scientific Research (CNRS), the French Ministry of Culture and Communication, the TGE Adonis Consortium, and the Centre of Research in Ethnomusicology (CREM).}\r
 \r
 \r
 \bibliographystyle{plain}\r