87. (Noviembre 2017) Medidas de complejidad rítmica (II)
DivulgaMAT
Inicio - DivulgaMAT Facebook - DivulgaMAT Twitter - DivulgaMAT

87. (Noviembre 2017) Medidas de complejidad rítmica (II)
PDF Imprimir Correo electrónico
Escrito por Paco Gómez Martín (Universidad Politécnica de Madrid)   
Miércoles 08 de Noviembre de 2017

1. Introducción

Este es el segundo artículo de la serie sobre medidas de complejidad rítmica. En el primer artículo [Góm17] se presentaron las principales preguntas alrededor de la cuestión de cómo medir la complejidad rítmica y se pasó a revista a unas cuantas medidas (las medidas métricas, las medidas basadas en patrones y las medidas basadas en distancias). En la columna de hoy continuaremos con el examen de las medidas formales de complejidad; en particular, estudiaremos las basadas en la entropía de la información, las basadas en los histogramas de intervalos entre notas consecutivas y las llamadas de irregularidad matemática, que incluirán el índice de asimetría rítmica y la medida de contratiempo. En la siguiente columna estudiaremos cómo medir la bondad de todas esas medidas desde distintos puntos de vista, pero pondremos especial énfasis en la evaluación perceptual de las medidas.

2. Entropía de la información

2.1. La medida H de complejidad

Las medidas de complejidad rítmica de esta sección se basan en la idea de la entropía definida por Shannon [Sha48]; la entropía también se llama incertidumbre de la información. Este es un concepto que aparece en varias disciplinas científicas tales como la termodinámica, la mecánica estadística y por supuesto la teoría de la información. La idea que subyace debajo de la definición es que las palabras más inesperadas son las que más información aportan. La idea de lo inesperado es formalizado a través de las distribuciones de probabilidad de modo que lo más inesperado tiene menos probabilidad. Supongamos que X e Y son dos variables aleatorias discretas con distribuciones de probabilidad p(x) y p(y), respectivamente. Se define la entropía H(X) por la expresión

          ∑ H(X ) = -     p(x )log2 p(x)           x∈X

Se supone que 0 ⋅ log 2(0) = 0. Si p(x,y) es la probabilidad del vector aleatorio (X,Y) su entropía conjunta es

            ∑   ∑ H(X, Y ) = -        p(x )p (x,y )log  p(x,y)             x∈X y∈Y             2

La medida H de la complejidad rítmica se basa en modelos de percepción de estímulos binarios [VT69]. Los ritmos se pueden ver como un estímulo binario, una nota o un silencio. La medida construye un espacio de probabilidad sobre el conjunto de ritmos de manera recursiva y luego aplica las fórmulas de arriba para obtener la entropía. Los detalles son un tanto técnicos y nos conformaremos con esta breve descripción. Para más información, véase las páginas 29 a 36 de la tesis de Thul [Thu08].

2.2. Codificación de Lempel-Ziv

La complejidad rítmica se puede medir en términos de la capacidad de compresión del ritmo en particular. En efecto, la idea que subyace debajo es que si un ritmo es muy complejo se podrá comprimir poco y si es poco complejo admitirá un alto grado de compresión. Este enfoque, como es claro, pertenece a la teoría de la información. Pero ¿cómo se comprime la información? Uno de los algoritmos más populares es el de Lempel-Ziv [LZ76]. Este algoritmo toma una secuencia (que puede ser un texto o en nuestro caso un ritmo) y lo analiza de izquierda a derecha. A partir de ese análisis construye un diccionario que contiene el vocabulario necesario para describir la secuencia entera. Por ejemplo, si la secuencia es (a.n..a), el diccionario estará formado por la expresión an, donde aquí la potencia significa la concatenación de la letra a n veces. Como se puede ver, dado que la secuencia es muy simple, su diccionario es muy corto. Sin embargo, la cadena r = 0001101001000101 tiene como diccionario D = {0,001,10,100,1000,101000}, que tiene tamaño 6, y que es más largo que el de la secuencia an. La complejidad de ese ritmo sería 6. Los detalles de la construcción también en este caso revisten cierto carácter técnicos y hemos optado por remitir al lector interesado a la sección 3.4.4 de la tesis de Thule [Thu08] o también al artículo de Lempel-Ziv [LZ76].

3. Histogramas de las duraciones de las notas

Los histogramas se han usado en Estadística largamente como forma de resumir y visualizar información, especial una gran cantidad de datos, de manera que su interpretación fuera más fácil y efectiva. Un histograma está formada por una serie de rectángulos o barras cuya superficie es proporcional a la frecuencia de los valores asociados a cada barra.

En teoría de la música, los intervalos de duraciones entre notas consecutivas (IDNC) es el número de pulso que hay entre ambas. Aquí se está suponiendo implícitamente que el pulso es una unidad mínima en el ritmo y que aquel no admite subdivisiones. En la mayoría de los casos es posible suponer la existencia de tal pulso mínimo. Los histogramas se pueden calcular con IDNCs locales o IDNCs globales. Los IDNCs locales no son más que los intervalos obtenidos entre dos notas consecutivas del ritmo. Por ejemplo, para la clave son, de ritmo [x . . x . . x . . . x . x . . .], su histograma es el que muestra la figura 1; a la izquierda de la figura se ve la representación de este ritmo sobre el círculo. Las duraciones de este ritmo son (3, 3, 4, 2, 4).

PIC

Figura 1: Histogramas locales de los intervalos de duraciones entre notas consecutivas (figura tomada de [Thu08])

Los histogramas globales de los IDNCs, en cambio, consideran todos los intervalos que se generan entre todos los pares de notas posibles. Si el ritmo tiene k notas, entonces ese número es (k 2) = k(k---1)    2. La figura 2 muestra el histograma global para la clave son. Este ritmo tiene 5 notas y 10 posibles intervalos entre pares de notas, que son (3,3,4,2,4,7,6,7,6,6).

PIC

Figura 2: Histogramas globales de los intervalos de duraciones entre notas consecutivas (figura tomada de [Thu08])

3.1. Desviación estándar de los INCDs

La desviación estándar de un conjuntos de datos es una medida de dispersión respecto a la media. La media, a su vez, es una medida de centralización. Si los datos son {x1,x2,…,xn}, entonces la media x se define como

--  1 ∑n x = --   xi     n i=1  y la desviación estándar dv como      ┌  --------------      ││  1 ∑n      -- dv = ∘  --   (xi - x)2         n i=1

La desviación estándar hace un promedio de los errores cuadráticos cometidos al sustituir cada dato por la media. Cuando la desviación es cero, implica que todos los datos son iguales entre sí y los datos alcanzan la máxima homogeneidad. Según la desviación típica se hace más grande, los datos se vuelven más homogéneos. La desviación típica se puede ver cómo una medida de cuán representativa es la media respecto al conjunto de datos. Cuando se usa en este sentido se suele complementar con el coeficiente de variación, que se define como dv- x. Este coeficiente, normalmente expresado como un porcentaje, nos da la cantidad de dispersión por unidad de media.

Para la medida de la complejidad rítmica, se considera que un ritmo que tiene baja desviación estándar tiene poca complejidad. Tendrá pocos valores diferentes para los INDCs. En cambio, si su desviación estándar es alta, esto significará que hay mucha diversidad de valores de los INDCs. No se le escapa al lector que está medida tendrá sus limitaciones, como mostrarán los experimentos, pues no siempre la variedad de duraciones implicará una complejidad intrínseca de los mismos. La desviación estándar se puede calcular tanto para los histogramas locales como los histogramas globales.

3.2. Entropía de la información sobre los histogramas

El histograma de un conjunto de datos siempre da lugar a una distribución de probabilidad. Si hay n datos, cada dato tiene probabilidad 1∕n de aparecer. Si un dato aparece k veces, su probabilidad será k∕n. Siendo esto así, se puede aplicar todas las ideas desarrolladas más arriba sobre la teoría de la información, esto es, usando la fórmula H(X) = -x∈X p(x)log2 p(x), donde X es la distribución dada por los histogramas.

4. Irregularidad matemática

Las medidas que estudiaremos en esta sección tienen su base en ideas matemáticas. Constituyen las ideas más formales de todas las presentadas hasta ahora. En otro contexto similar, la medida de síncopa, estudiamos las dos medidas siguientes, el índice de asimetría rítmica y la medida de contratiempo; véanse las columnas de octubre a diciembre de 2011 [Góm11aGóm11bGóm11c].

4.1. Índice de asimetría rítmica

Simha Arom [Aro91] descubrió que los pigmeos aka usan ritmos que tienen lo que él llama la propiedad de asimetría rítmica [CT03Che02]. Un ritmo con un tramo temporal consistente en un número par de unidades de tiempo tiene la propiedad de asimetría rítmica si no hay dos notas que partan el ciclo (el tramo temporal entero) en dos subintervalos de igual longitud. Tal partición se llama un bipartición igual. Nótese que la propiedad de asimetría rítmica se define solo para tramos temporales de longitud par. Para tramos de longitud impar todos los ritmos tiene esa propiedad, lo que desprovee a la medida de todo interés. Aunque limitada, esta propiedad es un primer paso hacia una definición matemática de la complejidad rítmica.

Toussaint [Tou03] propuso una generalización de esta propiedad que tenía más capacidad de discriminación. Originalmente, Simha Arom [Aro91] definió la propiedad de asimetría rítmica de una manera estrictamente dicotómica, blanco o negro, todo o nada, esto es, el ritmo o tiene la propiedad o no la tiene. Este concepto se puede generalizar a una variable que tome más valores y que mida la cantidad de asimetría rítmica que un ritmo posee. Esta variable de asimetría rítmica se define como el número de biparticiones iguales que admite un ritmo. Cuantas menos biparticiones un ritmo admita, más asimetría rítmica tendrá. La medida de asimetría se concibe entonces como una medida de complejidad rítmica.

4.2. La medida de contratiempo

Consideremos en primer lugar los ritmos definidos sobre un tramo temporal de 12 unidades de tiempo. Un intervalo de 12 unidades se puede dividir de manera exacta, sin resto, por cuatro números mayores estrictamente que 1 y menores que 12. Estos números son 6, 4, 3 y 2. Dividir el círculo de 12 unidades por estos números da lugar a un segmento, un triángulo, un cuadrado y un hexágono, respectivamente. Normalmente, la música africana incorpora un tambor u otro instrumento de percusión que toca al menos una porción de estos patrones. A veces la música se acompaña con ritmos de palmas que usan alguno de estos patrones. Por ejemplo, la musica funeral neporo del noroeste de Ghana emplea el triángulo, el cuadrado y el hexágono en sus ritmos de palmas [Wig98]. En cualquier caso, el ritmo tiene un pulso que podemos asociar con la posición “cero” en el ciclo. En la música polirrítmica estos cuatro subpatrones forman los posibles patrones métricos. Dos de estos patrones, el segmento y el cuadrado, son binarios y dos, el triángulo y el hexágono, ternarios. En la figura 3 se muestra las subdivisiones dadas por los divisores de 12 para los ritmos bembé y la clave son. El primero es ternario y es [x . . x . x x . x . x . x] y el segundo es binario y se describe como [x . . x . . x . . . x . x . . .].

PIC

Figura 3: La medida de contratiempo (figura tomada de [Thu08])

Por tanto, las notas que se tocan en otras posiciones están en posiciones de contratiempo en un sentido fuertemente polirrítmico. Hay cuatro posiciones que no aparecen en ninguno de estos cuatro patrones. Esas posiciones son 1, 5, 7 y 11. Las notas en esas posiciones se llamarán notas a contratiempo. Un ritmo que contenga al menos una nota en una de esas posiciones se dirá que tiene la propiedad del contratiempo. La medida de contratiempo es el número de notas a contratiempo que contiene. Estas notas a contratiempo (1, 5, 7, y 11) tienen una interpretación en términos de teoría de grupos. Las 12 posiciones para las 12 posibles notas forman un grupo cíclico de orden 12 designado por C12. Los valores de las posiciones de las notas a contratiempo corresponden a los tamaños de los intervalos que tienen la propiedad de que, si se recorre el ciclo empezando en “cero” en sentido horario en saltos de tamaño igual al tamaño de uno de estos intervalos, entonces en algún momento se vuelve al punto de inicio tras haber visitado todas las 12 posiciones. Recíprocamente, si las longitudes de los saltos se toman del conjunto complementario {2,3,4,6,8,9,10}, entonces el punto de inicio se alcanzará sin haber visitado las 12 posiciones del ciclo. Por esta razón, los elementos 1, 5, 7 y 11 se llaman generadores del grupo C12

Los números que indican la posición de las notas a contratiempo en el ciclo también tienen una interpretación desde el punto de vista de la teoría de números. Consideremos un tramo temporal de n unidades. Las posiciones de las notas a contratiempo se conocen como coprimos de n (véase[CG96]) . Los coprimos de n son los enteros positivos menores que n que son primos relativos con n. Dos números son primos relativos si el único divisor que tienen en común es 1. La función indicatriz de Euler, designada por ϕ(n), es el número de coprimos de n, y es por tanto el valor máximo que la medida de contratiempo puede tomar para un ritmo con un tramo temporal de n unidades.

Ya que cada grupo cíclico Cn tiene un conjunto de generadores, la medida de contratiempo descrita se puede generalizar a ritmos definidos sobre tramos temporales de n unidades, donde n puede tomar otros valores distintos a 12. Aunque la medida funciona mejor con valores pares de n, tiene alguna aplicabilidad para valores impares de n. Por otra parte, si n es un número primo p, entonces todos los números entre 1 y p - 1 son coprimos con p. En tal caso la medida es infructuosa, ya que todas las posiciones entre 1 y p - 1 serían notas a contratiempo bajo la presente definición de contratiempo.

5. Conclusiones

En este artículo hemos presentado medidas métricas y medidas basadas en patrones y medidas basadas en distancias para la complejidad rítmica. Como ha podido comprobar el lector, los enfoques son muy distintos y producen a su vez resultados también distintos. Queda para los siguientes artículos estudiar su validación perceptual.

 

Bibliografía

[Aro91] Simha Arom. African Polyphony and Polyrhythm. Cambridge University Press, Cambridge, England, 1991.

[CG96] J. H. Conway and R. K. Guy. Euler’s Totient Numbers. The Book of Numbers, pages 154–156, 1996.

[Che02] Marc Chemillier. Ethnomusicology, ethnomathematics. The logic underlying orally transmitted artistic practices. In G. Assayag, H. G. Feichtinger, and J. F. Rodrigues, editors, Mathematics and Music, pages 161–183. Springer-Verlag, 2002.

[CT03] Marc Chemillier and Charlotte Truchet. Computation of words satisfying the “rhythmic oddity property” (after Simha Arom’s works). Information Processing Letters, 86:255–261, 2003.

[Góm11a] Paco Gómez. Medidas matemática de síncopa (I), 2011.

[Góm11b] Paco Gómez. Medidas matemática de síncopa (II), 2011.

[Góm11c] Paco Gómez. Medidas matemática de síncopa (III), 2011.

[Góm17] Paco Gómez. Medidas de complejidad rítmica (I), 2017.

[LZ76] A. Lempel and J. Ziv. On the complexity of finite sequences. IEEE Transactions on Information Theory, 22(1):75–81, 1976.

[Sha48] C.E. Shannon. A mathematical theory of communication. The Bell System Technical Journal, 27:623–656, 1948.

[Thu08] Eric Thul. Measuring the complexity of musical rhythm. Master’s thesis, McGill University, Canada, 2008.

[Tou03] Godfried T. Toussaint. Classification and phylogenetic analysis of African ternary rhythm timelines. In Proceedings of BRIDGES: Mathematical Connections in Art, Music and Science, pages 25–36, Granada, Spain, July 23-27 2003.

[VT69] P. C. Vitz and T. C. Todd. A coded element model of the perceptual processing of sequential stimuli. Psycological Review, 75(6):443–449, 1969.

[Wig98] Trevor Wiggins. Techniques of variation and concepts of musical understanding in Northern Ghana. British Journal of Ethnomusicology, 7:117–142, 1998.

 

© Real Sociedad Matemática Española. Aviso legal. Desarrollo web