• Nenhum resultado encontrado

O experimento de avaliação dos resultados contou com a participação de 151 usuários, em que 201 trechos foram avaliados (em média, seis avaliações por trecho). Para vericar o quanto um resumo era considerado representativo, em relação ao trecho original selecio- nado para o usuário, utilizou-se uma escala psicométrica de nove pontos, conforme pode ser observado na Figura 5.4. Esse tipo de escala é amplamente utilizado para se veri- car sensações de usuários quanto a alguma grandeza sensitiva, emocional ou psicológica. Como a sensação de "relevância"de um vídeo depende muito do que um usuário considera importante assistir, ou do que ele espera ver em um resumo, optou-se por aplicar o teste baseado nesta escala.

Figura 5.4: Escala psicométrica de nove pontos utilizada para aferir a impressão do usuá- rio.

A escala psicométrica esconde os valores numéricos para evitar a atribuição de uma nota, uma vez que o foco é a relevância e não o valor dado a esta grandeza.

Considerando o resumo dinâmico dos trechos de vídeo, o resultado das avaliações dos usuários pode ser observado no histograma de frequências das respostas (Figura 5.5). O histograma mostra que os usuários, em sua maioria, consideram representativo os resumos dinâmicos apresentados. Agrupando as respostas em baixa (notas de 1 a 3), média (de 3 a 6) e alta (de 7 a 9) sensação de representatividade, observa-se que os resumos receberam 62% de alta representatividade (Figura 5.6). Note que em apenas 13% das avaliações os resumos foram considerados pouco representativos. O valor médio obtido para todas as avaliações dos resumos dinâmicos foi de 6,57.

Figura 5.5: Histograma das respostas para o resumo dinâmico.

Já em relação aos resumos estáticos, as percepções informadas pelos usuários são apresentadas na Figura 5.7. Deniu-se Storyboard A o resumo estático deste trabalho, e Storyboard B aquele obtido pela técnica apresentada em [4]. Respectivamente, os valores médios obtidos foram de 5,34 e 4,70.

Comparativamente, por meio da aplicação de um teste de diferença a 1%, a análise de variança (ANOVA) resultou que existe diferença signicativa entre as respostas fornecidas pelos usuários para os resumos estáticos. Dessa forma, podemos armar que o resumo estático Storyboard A obteve um desempenho melhor que o Storyboard B, para os trechos de vídeos analisados. Considerando, novamente, o agrupamento das respostas em três níveis, pode-se vericar que o Storyboard A obteve 38,8% de alta representatividade, 35,8% de média representatividade e 25,4% de baixa representatividade. Já o Storyboard B obteve 22,5% de alta representatividade, 45,3% de média representatividade e 32,3% de baixa representatividade, conforme apresentado na Figura 5.8.

Após realizar as análises das percepções informadas pelos usuários, podemos concluir que este trabalho obteve bons resultados para a sumarização de vídeos de futebol televi- sivos.

Figura 5.6: Respostas agrupadas para o resumo dinâmico em baixa, média e alta repre- sentatividade.

a) b)

Figura 5.8: Respostas agrupadas para os resumos estáticos em baixa, média e alta repre- sentatividade: storyboards a) abordagem deste trabalho e b) abordagem de Almeida et al. [4] .

Capítulo 6

Conclusão e Trabalhos Futuros

O uso crescente de vídeos digitais tem transformado a maneira com que os usuários acompanham um determinado esporte. A relevância dos diferentes eventos esportivos tem gerado cada vez mais vídeos que são difundidos por diferentes meios de transmissão, sempre obedecendo um padrão de dinâmica de câmeras para atrair ou realçar eventos par- ticulares das diferentes modalidades esportivas. No futebol, o padrão televisivo brasileiro não segue o padrão internacional, denido principalmente para transmissões americanas e europeias.

Este trabalho traz contribuições teóricas e práticas para a análise de vídeos esportivos televisivos. Do ponto de vista teórico, ele contribui:

• Apresentando um framework que explora segmentos audiovisuais de vídeo utilizando keyframes e dinâmicas de câmera, de acordo com a natureza do vídeo;

• Denindo uma generalização para o processo de geração de imagens representativas por Ritmo Visual a partir de uma análise de abordagens que adoram esse processo; • Denindo o conceito de perl de domínio, que caracteriza os eventos relevantes de um vídeo conforme a natureza do mesmo, a partir de um conjunto customizável de parâmetros: funções de transformação e regras de contexto da lógica fuzzy. Esse perl permite a materialização, reúso, adaptação e extensão do que é caracterizado como conhecimento de domínio, que nos trabalhos relacionados não foi represen- tado de forma explícita, estando embutido no código de reconhecimento ou sendo aprendido por máquinas.

Do ponto de vista prático, ele contribui:

• Apresentando ferramentas para extração de keyframes e resumos estáticos e dinâ- micos para a análise de vídeos de futebol televisivos no padrão brasileiro de trans- missão;

• Implementando um processo para a construção de sumários que pode ser customi- zado para diferentes naturezas de vídeo a partir da caracterização de um perl de domínio.

Diferente das demais abordagens, este trabalho apresentou um modelo simplicado de fácil adaptação, além de permitir a execução de processos em paralelo. As técnicas denidas para a sumarização de jogos de futebol são de baixo custo computacional e não necessitam de aprendizado de máquina. A modelagem para a dinâmica televisiva brasileira, por estar baseada apenas na sequência de visões de câmera, também pode ser aplicada para a dinâmica internacional.

Foi realizada a validação com usuários para comparar a relevância dos resumos di- nâmicos, obtendo boa aceitação em que 62% considerou o resumo dinâmico relevante. Já para o resumo estático, o resultado apresentado foi comparado com outra técnica, apresentando melhor avaliação para o storyboard proposto neste trabalho.

Como trabalhos futuros, podemos destacar o processo de Análise intra-frame, que neste trabalho se concentrou em extrair as características para permitir a classicação de tomadas de visão longa, mas poderia considerar também outras características que permi- tissem a classicação de tomadas de visão média, de zoom e da torcida. Em contrapartida, essas novas características permitiriam que o processo de Classicação de Tomadas iden- ticasse eventos especícos do futebol, auxiliando no processo de extração de estatísticas do jogo (número de gols, penalidades, escanteios, etc.).

Outros trabalhos futuros envolvem a aplicação do framework proposto a outras mo- dalidades esportes, tais como tênis, basquete e voleibol, explorando diferentes dinâmicas. Isso permitirá testar, renar e validar a generalidade do perl de domínio, bem como a adequação do processo proposto em outros esportes. Por exemplo, para jogos de tênis, cuja estrutura é bem denida, especicar uma abordagem adequada para encontrar a quadra, a grama ou o saibro, as regras de domínio envolvidas nos eventos e o padrão da dinâmica de câmeras.

Os resultados obtidos não foram confrontados com aqueles obtidos por outras abor- dagens. Por essa razão, está previsto um estudo mais extenso, que envolve não apenas a análise de qualidade do resultado, i.e., se os resumos obtidos por este framework tem melhores avaliações que os demais, como também de exibilidade, i.e., qual o esforço para estender o framework a diferentes domínios e quão fácil é compartilhar estas extensões.

Vale ressaltar que o perl de domínio proposto e a possibilidade de compartilhá-lo e modicá-lo permitem a colaboração de grupos de pessoas na expansão e renamento coletivos das estratégias de sumarização. Este trabalho não explorou essa dimensão, mas ela pode ser estudada em trabalhos futuros.

Referências Bibliográcas

[1] N. Adami, R. Leonardi, and P. Migliorati. An overview of multi-modal techniques for the characterization of sport programmers. In SPIE Visual Communications and Image Processing, volume 5150, pages 12961306, jul 2003. URL http://www. iti.gr/SCHEMA/files/document/13-01-2004/vcip03_sport.pdf.

[2] Akihito Akutsu and Yoshinobu Tonomura. Video tomography: An ecient method for camerawork extraction and motion analysis. In Proceedings of the Second ACM International Conference on Multimedia, MULTIMEDIA '94, pages 349356, New York, NY, USA, 1994. ACM. ISBN 0-89791-686-7. doi: 10.1145/192593.192697. [3] Jurandy Almeida, Jefersson Alex dos Santos, Bruna C. Alberton, Leonor Patrícia C.

Morellato, and Ricardo da Silva Torres. Visual rhythm-based time series analysis for phenology studies. In 2013 IEEE International Conference on Image Processing, pages 44124416, Sept 2013. doi: 10.1109/ICIP.2013.6738909.

[4] Jurandy Almeida, Neucimar J. Leite, and Ricardo da S. Torres. Online video sum- marization on compressed domain. Journal of Visual Communication and Image Representation, 24(6):729738, August 2013. doi: 10.1016/j.jvcir.2012.01.009. [5] Ernesto L. Andrade, Ekram Khan, John C. Woods, and Mohammed Ghabari. Player

classication in interactive sport scenes using prior information region space analy- sis and number recognition. In International Conference on Image Processing, vo- lume 3, pages III129III132, September 2003. URL http://dx.doi.org/10. 1109/ICIP.2003.1247198.

[6] F. Arman, R. Depommier, A. Hsu, and M.-Y. Chiu. Content-based browsing of video sequences. In Proceedings of the second ACM international conference on Multimedia - MULTIMEDIA '94, pages 97103, New York, NY, USA, 1994. ACM Press. ISBN 0897916867. doi: 10.1145/192593.192630. URL http://portal.acm. org/citation.cfm?doid=192593.192630.

[7] Jürgen Assfalg, Marco Bertini, Carlo Colombo, Alberto Del Bimbo, and Walter Nunziati. Semantic annotation of soccer videos: Automatic highlights identication. Computer Vision and Image Understanding, 92(2-3):285305, November 2003. ISSN 10773142. doi: 10.1016/j.cviu.2003.06.004. URL http://linkinghub.elsevier. com/retrieve/pii/S1077314203001231.

[8] Noboru Babaguchi and Naoko Nitta. Intermodal collaboration: a strategy for semantic content analysis for broadcasted sports video. In International Confe- rence on Image Processing, volume 1, pages I13I16, September 2003. URL http://ieeexplore.ieee.org/xpl/abs_free.jsp?arNumber=1246886.

[9] Noboru Babaguchi, Yoshihiko Kawai, Yukinobu Yasugi, and Tadahiro Kitahashi. Linking live and replay scenes in broadcasted sports video. In MULTIMEDIA '00: Proceedings of the 2000 ACM workshops on Multimedia, pages 205208. ACM Press, 2000. ISBN 1-58113-311-1. doi: http://doi.acm.org/10.1145/357744.357935. URL http://doi.acm.org/10.1145/357744.357935.

[10] Noboru Babaguchi, Yoshihiko Kawai, and Tadahiro Kitahashi. Generation of per- sonalized abstract of sports video. In IEEE International Conference on Mul- timedia and Expo, pages 619 622, 2001. ISBN 0-7695-1198-8. URL http: //ieeexplore.ieee.org/xpl/abs_free.jsp?arNumber=1237796.

[11] Blain Brawn. Cinematography: Theory and Practice. Image Making for Cinema- tographers, Directors and Videographers. Focal Press, 1st edition, 2002. ISBN 0-240-80500-3.

[12] R. Brunelli, O. Mich, and C. Modena. A survey on video indexing. Technical Report 9612-06, Instituto per la Ricerca Scientica e Tecnologica, 1996. URL http: //citeseer.nj.nec.com/brunelli96survey.html.

[13] R. Brunelli, O. Mich, and C. M. Modena. A survey on the automatic indexing of video data. Journal of Visual Communication and Image Representation, 10(2): 78112+, 1999. doi: http://dx.doi.org/10.1006/jvci.1997.0404. URL http://dx. doi.org/10.1006/jvci.1997.0404.

[14] Min Gyo Chung, Jinho Lee, Hyokman Kim, S. Moon-Ho Song, and WoonKyung M. Kim. Automatic video segmentation based on spatio-temporal features. Korea Telecom Journal, 4(1):113, 1999. URL http://eeserver.korea.ac.kr/~bk21/ publication/wkkim/wkkim_3.pdf.

[15] Gianluigi Ciocca and Raimondo Schettini. Dynamic key-frame extraction for video summarization. In Simone Santini, Raimondo Schettini, and Theo Gevers, editors, SPIE 5670, Internet Imaging VI, volume 5670, pages 137142, 2005. doi: 10.1117/ 12.586777. URL http://dx.doi.org/10.1117/12.586777.

[16] F. Coldefy and P. Bouthemy. Unsupervised soccer video abstraction based on pitch, dominant color and camera motion analysis. In Proceedings of the 12th Annual ACM International Conference on Multimedia, MULTIMEDIA '04, pages 268271, New York, NY, USA, 2004. ACM. ISBN 1-58113-893-8. doi: 10.1145/1027527.1027588. URL http://doi.acm.org/10.1145/1027527.1027588.

[17] Allan da Silva Pinto, Hélio Pedrini, William Robson Schwartz, and Anderson Rocha. Video-based face spoong detection through visual rhythm analysis. In 2012 25th

SIBGRAPI Conference on Graphics, Patterns and Images, pages 221228, Aug 2012. doi: 10.1109/SIBGRAPI.2012.38.

[18] Fédération Internationale de Football Association (FIFA). Regras de Futebol  2015 ◦ 2016, Agosto 2015. URL http://cdn.cbf.com.br/content/201509/ 20150916113945_0.pdf.

[19] Nevenka Dimitrova, Hong-Jiang Zhang, Behzad Shahraray, Ibrahim Sezan, Thomas Huang, and Avideh Zakhor. Applications of video-content analysis and retrieval. IEEE Multimedia, 9(3):4255, 2002. ISSN 1070-986X. doi: 10.1109/MMUL.2002. 1022858. URL http://ieeexplore.ieee.org/search/wrapper.jsp?arnumber= 1022858.

[20] F. Dirfaux. Key frame selection to represent a video. In Image Processing, 2000. Proceedings. 2000 International Conference on, volume 2, pages 275278, Sept 2000. doi: 10.1109/ICIP.2000.899354.

[21] Lillian C. B. dos Santos, Jurandy Almeida, Jefersson Alex dos Santos, Sílvio Jamil F. Guimarães, Arnaldo de A. Araújo, Bruna C. Alberton, Leonor Patrícia C. Morel- lato, and Ricardo da Silva Torres. Phenological event detection by visual rhythms dissimilarity analysis. In 2014 IEEE 10th International Conference on e-Science, volume 1, pages 263270, Oct 2014. doi: 10.1109/eScience.2014.23.

[22] A. D. Doulamis, N. D. Doulamis, and S. D. Kollias. Ecient video summariza- tion based on a fuzzy video content representation. In 2000 IEEE International Symposium on Circuits and Systems. Emerging Technologies for the 21st Century. Proceedings (IEEE Cat No.00CH36353), volume 4, pages 301304 vol.4, 2000. doi: 10.1109/ISCAS.2000.858748.

[23] Ahmet Ekin, A Murat Tekalp, and Rajiv Mehrotra. Automatic soccer video analysis and summarization. IEEE Transactions on Image Processing, 12(7):796807, 2003. doi: 10.1.1.11.6870.

[24] Mohamed Y. Eldib, Bassam S. Abou Zaid, Hossam M. Zawbaa, Mohamed El-Zahar, and Motaz El-Saban. Soccer video summarization using enhanced logo detection. In 2009 16th IEEE International Conference on Image Processing (ICIP), pages 43454348, Nov 2009. doi: 10.1109/ICIP.2009.5413649.

[25] UOL Esporte. Uol esporte - acompanhe ao vivo os principais eventos no brasil e no mundo. https://esporte.uol.com.br/, acessado em julho de 2018. URL https://esporte.uol.com.br/.

[26] A. Müt Ferman, A. Murat Tekalp, and Rajiv Mehrotra. Robust color histogram descriptors for video segment retrieval and identication. IEEE Transactions on Image Processing, 11(5):497508, 2002. ISSN 10577149. doi: 10.1109/TIP.2002. 1006397.

[27] Pascual Jovino Figueroa, Neucimar Jerônimo Leite, and Ricardo Machado Leite Barros. Tracking soccer players aiming their kinematical motion analysis. Comput. Vis. Image Underst., 101(2):122135, feb 2006. ISSN 1077-3142. doi: 10.1016/j. cviu.2005.07.006. URL http://dx.doi.org/10.1016/j.cviu.2005.07.006. [28] Globoesporte. globoesport.com. https://globoesporte.globo.com/, acessado em

julho de 2018. URL https://globoesporte.globo.com/.

[29] Marco Godi, Paolo Rota, and Francesco Setti. Indirect match highlights detection with deep convolutional neural networks. In Sebastiano Battiato, Giovanni Maria Farinella, Marco Leo, and Giovanni Gallo, editors, New Trends in Image Analysis and Processing  ICIAP 2017, pages 87  96, Cham, 2017. Springer International Publishing. ISBN 978-3-319-70742-6. doi: 10.1007/978-3-319-70742-6_8.

[30] Yihong Gong, Lim Teck Sin, Chua Hock Chuan, Hongjiang Zhang, and Masao Sakauchi. Automatic parsing of tv soccer programs. In International Conference on Multimedia Computing and Systems, pages 167174, 1995. ISBN 0-8186-7105- X. doi: 10.1109/MMCS.1995.484921. URL http://dx.doi.org/10.1109/MMCS. 1995.484921.

[31] Rafael C. Gonzalez and Richard E. Woods. Processamento Digital de Imagens. Pearson, 3a. edition, 2009. ISBN 978-8576054016.

[32] Silvio Jamil Ferzoli Guimarães. Video Transition Identication Based on 2D Image Analysis. PhD thesis, Departamento de Ciência de Computação - Universidade Federal de Minas Gerais, 2003.

[33] Silvio Jamil Ferzoli Guimarães, Michel Couprie, Neucimar Jerônimo Leite, and Ar- naldo de Albuquerque Araújo. A method for cut detection based on visual rhythm. In Proceedings XIV Brazilian Symposium on Computer Graphics and Image Pro- cessing, pages 297304, October 2001. doi: 10.1109/SIBGRAPI.2001.963069. [34] Silvio Jamil Ferzoli Guimarães, Neucimar Jerônimo Leite, Michel Couprie, and Ar-

naldo de Albuquerque Araújo. Video segmentation based on 2D image analysis. Pat- tern Recognition Letters, 24(7):947957, 2003. doi: 10.1016/S0167-8655(02)00218-0. [35] Informedia. Informedia: digital video library project. http://www.informedia. cs.cmu.edu/, acessado em janeiro de 2010. URL http://www.informedia.cs. cmu.edu/.

[36] Interaction Design Laboratory of UNC. The Open Video Project: a shared digital video collection. https://www.open-video.org/, acessado em julho de 2018. URL https://www.open-video.org/.

[37] S. Jai-Andaloussi, A. Mohamed, N. Madrane, and A. Sekkaki. Soccer video summa- rization using video content analysis and social media streams. In 2014 IEEE/ACM International Symposium on Big Data Computing, pages 1  7, Dec 2014. doi: 10.1109/BDC.2014.20.

[38] A. Javed, K. B. Bajwa, H. Malik, and A. Irtaza. An ecient framework for auto- matic highlights generation from sports videos. IEEE Signal Processing Letters, 23 (7):954  958, July 2016. ISSN 1070-9908. doi: 10.1109/LSP.2016.2573042.

[39] Haohao Jiang, Yao Lu, and Jing Xue. Automatic soccer video event detection based on a deep neural network combined cnn and rnn. In 2016 IEEE 28th International Conference on Tools with Articial Intelligence (ICTAI), pages 490494, Nov 2016. doi: 10.1109/ICTAI.2016.0081.

[40] Philippe Joly and Hae-Kwang Kim. Ecient automatic analysis of camera work and microsegmentation of video using spatiotemporal images. Signal Processing: Image Communication, 8(4):295  307, 1996. ISSN 0923-5965. doi: https://doi.org/ 10.1016/0923-5965(95)00054-2. URL http://www.sciencedirect.com/science/ article/pii/0923596595000542.

[41] Rafal Kapela, Aleksandra ‘wietlicka, Andrzej Rybarczyk, Krzysztof Kolanowski, and Noel E. O'Connor. Real-time event classication in eld sport videos. Signal Processing: Image Communication, 35:35  45, 2015. ISSN 0923-5965. doi: 10.1016/ j.image.2015.04.005. URL http://www.sciencedirect.com/science/article/ pii/S0923596515000661.

[42] Yasmin S. Khan and Soudamini Pawar. Video summarization: Survey on event detection and summarization in soccer videos. International Journal of Advan- ced Computer Science and Applications, 6(11), 2015. doi: 10.14569/IJACSA.2015. 061133. URL http://dx.doi.org/10.14569/IJACSA.2015.061133.

[43] E. Kijak, L. Oisel, and P. Gros. Hierarchical structure analysis of sport videos using HMMS. In International Conference on Image Processing, volume 2, pages II1025 II1028, September 2003. ISBN 0-7803-7750-8. doi: 10.1145/1101149.1101153. URL http://ieeexplore.ieee.org/xpl/abs_free.jsp?arNumber=1246859.

[44] Hyeokman Kim, Jinho Lee, Jae-Heon Yang, Sanghoon Sull, Woonkyung Michael Kim, and Samuel Moon-Ho Song. Visual rhythm and shot verication. Multimedia Tools and Applications, 15(3):227245, 2001. URL http://eeserver.korea.ac. kr/~bk21/publication/wkkim/wkkim_3.pdf.

[45] V. Kobla, D. DeMenthon, and D. Doermann. Detection of slow-motion replay se- quences for identifying sports videos. In 1999 IEEE Third Workshop on Multimedia Signal Processing (Cat. No.99TH8451), pages 135140, 1999. ISBN 0-7803-5610- 1. doi: 10.1109/MMSP.1999.793810. URL http://ieeexplore.ieee.org/iel5/ 6434/17174/00793810.pdf?tp=&arnumber=793810&isnumber=17174.

[46] Vikrant Kobla, Daniel DeMenthon, and David Doermann. Identifying Sports Videos using Replay, Text and Camera Motion Features. In SPIE Conference on Storage and Retrieval for Image and Video, pages 332343, 2000. doi: 10.1117/12.373565. URL http://www.cfar.umd.edu/users/kobla/publications/pw2000.ps.

[47] M. H. Kolekar and S. Sengupta. Bayesian network-based customized highlight ge- neration for broadcast soccer videos. IEEE Transactions on Broadcasting, 61(2): 195  209, June 2015. ISSN 0018-9316. doi: 10.1109/TBC.2015.2424011.

[48] Anita Komlodi and Gary Marchionini. Key frame preview techniques for video browsing. In DL '98: Proceedings of the third {ACM} conference on Digital libraries, pages 118125, New York, NY, USA, 1998. ACM Press. ISBN 0-89791-965-3. doi: http://doi.acm.org/10.1145/276675.276688. URL http://doi.acm.org/10.1145/ 276675.276688.

[49] Irena Koprinska and Sergio Carrato. Temporal video segmentation. Signal Pro- cessing: Image Communication, 16(5):477500, 2001. URL http://citeseer.nj. nec.com/378900.html.

[50] Mee-Sook Lee, Bon-Woo Hwang, Sanghoon Sull, and Seong-Whan Lee. Automa- tic video parsing using shot boundary detection and camera operation analysis. In Proceedings. Fourteenth International Conference on Pattern Recognition (Cat. No.98EX170), volume 2, pages 14811483, Aug 1998. doi: 10.1109/ICPR.1998. 711986.

[51] B. Li and M. Ibrahim Sezan. Event detection and summarization in sports video. In Proceedings IEEE Workshop on Content-Based Access of Image and Video Libraries (CBAIVL 2001), pages 132138, 2001. doi: 10.1109/IVL.2001.990867.

[52] Baoxin Li and Ibrahim Sezan. Semantic sports video analysis: approaches and new applications. In International Conference on Image Processing, volume 1, pages I17-I20, 2003. ISBN 0780377508. URL http://ieeexplore.ieee.org/xpl/ abs_free.jsp?arNumber=1246887.

[53] Baoxin Li, Hao Pan, and I. Sezan. A general framework for sports video summa- rization with its application to soccer. In Acoustics, Speech, and Signal Proces- sing, 2003. Proceedings. (ICASSP '03). 2003 IEEE International Conference on, volume 3, pages III16972 vol.3, April 2003. doi: 10.1109/ICASSP.2003.1199134. [54] Baoxin Li, James H. Errico, Hao Pan, and Ibrahim Sezan. Bridging the semantic

gap in sports video retrieval and summarization. Journal of Visual Communication and Image Representation, 15(3):393424, September 2004. ISSN 10473203. doi: 10.1016/j.jvcir.2004.04.006. URL http://linkinghub.elsevier.com/retrieve/ pii/S1047320304000343.

[55] Fangjie Liu, DaoGuo Dong, Xiaoping Miao, and XiangYang Xue. A fast video clip retrieval algorithm based on VA-le. In SPIE 5307, Storage and Retrieval Methods and Applications for Multimedia 2004, volume 5307, pages 167176, 2003. doi: 10.1117/12.525930. URL http://dx.doi.org/10.1117/12.525930.

[56] Sporting News Media, Kantar Media Sports, and SportBusiness Group. Know the fan: The global sports media consumption report 2014. Technical Report 3934419,

Sporting News Media, may 2014. URL https://sportsvideo.org/main/files/ 2014/06/2014-Know-the-Fan-Study_US.pdf.

[57] Microsoft. Msn vídeo. https://www.msn.com/pt-br/video/, acessado em julho de 2018. URL https://www.msn.com/pt-br/video/.

[58] Gerald Millerson and Asbury College Jim Owens. Video Production Handbook. Focal Press, Elsevier, 4th edition, 2008. ISBN 978-0-240-52080-3.

[59] C. W. Ngo, T. C. Pong, and R. T. Chin. Survey of video parsing and image indexing techniques in compressed domain. Symposium on Image, Speech, Signal Processing, and Robotics (Workshop on Computer Vision), 1:231236, 1998. URL http://www.cs.ust.hk/~cwngo/isspr98.html.

[60] C. W. Ngo, T. C. Pong, and R. T. Chin. Camera breaks detection by partitioning of 2D spatio-temporal images in MPEG domain. IEEE International Conference on Multimedia Computing and Systems, 1:750755, 1999. URL http://www.cs.ust. hk/~cwngo/icmcs99.html.

[61] C. W. Ngo, T. C. Pong, and R. T. Chin. Detection of gradual transitions through

Documentos relacionados