Entre
la persona y la máscara:
el
uso del autotune
en la canción "Goteo"
Cristian Villafañe
Revista Argentina de Musicología, Vol. 23 Nro. 2 (2022): 91-124 ISSN 1666-1060 (impresa) –
ISSN 2618-3072 (en línea)
Entre la persona y la máscara:
el
uso del autotune
en la canción "Goteo"
Desde comienzos del siglo XX
hemos sido testigos del vertiginoso avance de las tecnologías de grabación,
procesamiento y reproducción del sonido. Asimismo, las prácticas de producción
fonográfica se han modificado, alejándose de la concepción documental de los
medios analógicos de grabación y reproducción, cuyo impacto en el sonido
grabado pretendió invisibilizarse detrás de retóricas de la transparencia. Esto
se debe, principalmente, a la incidencia que tienen sobre el sonido las
operaciones realizadas por los ingenieros y técnicos de sonido, tanto durante
su grabación como en su postproducción.
Por otra parte, el advenimiento
de las tecnologías digitales dedicadas a la producción fonográfica,
paralelamente a la creación hacia fines del siglo XX de la world wide web y el intercambio de información
que ella habilitó, propiciaron no sólo una dispersión sin precedentes de
tecnología específica para la creación musical, sino también la proliferación
de usos creativos inicialmente no previstos en su diseño. De hecho, muchos de
ellos cristalizaron rápidamente prácticas que originaron efectos fonográficos
singulares, erigidos también como rasgos característicos de diversos estilos
musicales.
No
obstante, ocurre que la acumulación de prácticas, tanto estandarizadas como
creativas, pueden colisionar eventualmente con los supuestos en torno a la
autenticidad de un registro fonográfico, y en cuanto al límite en el cual una
práctica fonográfica específica puede constituirse como un engaño. En este
sentido, el objetivo del presente trabajo es observar y describir los
diferentes modos de uso de la tecnología de corrección de afinación conocida
popularmente como autotune
en el fonograma en vivo de la canción "Goteo", perteneciente a Duki, cantante argentino de trap.
Guían nuestro trabajo las siguientes hipótesis: en primer lugar, afirmar que la
implementación del autotune
es indispensable para el diseño sonoro de la persona musical y su vocalidad resultante. Segundo, sostener que su
implementación responde tanto a una decisión correctiva como
artístico-creativa.
Palabras clave: autotune, persona, vocalidad,
trap, Duki
Between the mask and the persona: uses of the autotune in "Goteo"
Since the beginning of the 20th
century we have witnessed the vertiginous advance of sound recording,
processing and reproduction technologies. Likewise, phonographic production
practices have been modified, moving away from the documentary conception of
analog recording and reproduction media, whose impact on recorded sound sought
to make itself invisible behind rhetoric of transparency. This is mainly due to
the impact that the operations carried out by sound engineers and technicians
have on sound, both during recording and post-production.
On the other hand, the advent of
digital technologies dedicated to phonographic production, parallel to the
creation towards the end of the 20th century of the world wide web and the
exchange of information it enabled, led not only to an unprecedented dispersion
of specific technology for musical creation, but also to the proliferation of
creative uses not initially foreseen in its design. In fact, many of them
quickly crystallized into practices that gave rise to unique phonographic
effects, also erected as characteristic features of various musical styles.
However, it happens that the
accumulation of practices, both standardized and creative, may eventually
collide with assumptions about the authenticity of a phonographic record, and
about the limit at which a specific phonographic practice can constitute a
hoax. In this sense, the objective of this paper is to observe and describe the
different modes of use of the pitch correction technology popularly known as
autotune in the live version of the song "Goteo",
belonging to Duki, an argentine
trap artist. The following hypotheses guide our work: first, to affirm that the
implementation of autotune is essential for the sound design of the musical
person. Second, to maintain that its implementation responds to both a
corrective and an artistic-creative decision.
Keywords: autotune, persona, vocality, trap, Duki
1. Introducción[1]
Música y tecnología están íntimamente
relacionadas. Según Luciano Lahiteau, ellas “ … son
indisociables, y no es posible entender el desarrollo de la primera sin atender
la evolución de la segunda”.[2] En
la misma línea, Joseph Auner refuerza explicando que
en ningún
otro aspecto de nuestras vidas se ha producido una penetración en lo humano tan
completa por parte de la máquina como en la música. Cada etapa de producción,
distribución y consumo en la vida musical del mundo industrializado ha sido tan
permeada por la tecnología que ya ni siquiera reconocemos dispositivos complejos
como el piano en tanto artefactos tecnológicos.[3]
En este sentido, la fonografía y sus
prácticas específicas de producción y reproducción del sonido pueden
considerarse como el epítome de lo afirmado por Lahiteau
y Auner. Desde la grabación hasta la postproducción y
publicación de un fonograma, todas las instancias de la producción fonográfica
se encuentran inervadas por tecnologías específicas que, en su mayoría, no
actúan únicamente como continentes asépticos de la música, sino todo lo
contrario: se erigen como su misma condición de existencia. Existencia
portadora de una diferencia ontológica radical respecto de lo que la originó.
En este sentido, nuevamente con Lahiteau, “… la
música grabada es en esencia un artificio, puesto que fija en un soporte físico
o digital algo tan volátil e insustancial como una serie de sonidos organizados
en el tiempo”.[4] No
obstante, y para evitar caer en un determinismo técnico-tecnológico, se impone
recuperar las voces de Simon Frith y Simon Zagorski-Thomas, quienes
afirman que “en el estudio [de grabación] las decisiones técnicas son
estéticas, las decisiones estéticas son técnicas y todas las decisiones son
musicales”.[5]
Desde los años sesenta en adelante, el phonographic staging[6]
o, como lo llamaremos aquí, las presentaciones fonográficas[7]
de las músicas populares han tendido progresivamente hacia una concepción de la
producción fonográfica que aspira más a crear una realidad de la ilusión que
una ilusión de realidad.[8] Por
ejemplo, desde el nacimiento de la figura del crooner en la música popular a mediados del siglo XX, cuyo auge
está ligado íntimamente a la invención del micrófono eléctrico,[9]
hasta los procesamientos y manipulaciones en obras electroacústicas de
compositores de música de tradición escrita tales como Karlheinz
Stockhausen o Luciano Berio,[10] la
voz grabada ha sido objeto de múltiples operaciones de procesamiento y
transformación, combinando finalidades tanto artístico-creativas como
correctivas. Si, como afirma Philip Tagg, “la voz es
el instrumento musical primario de la humanidad”,[11]
es necesario entonces comprender de qué manera se la manipula en la producción
fonográfica, cuáles son las decisiones que se toman y las operaciones que se le
realizan. En sí misma, la voz es portadora de una diferencia notable respecto a
otros instrumentos o sonidos que pueden grabarse. Como sostiene Lacasse,
Más que ser
un mero vehículo de la letra, la voz actúa a través de la exposición parcial
del cuerpo del cantante, como el índice aural de la persona del artista y de
las emociones que representa. Las características de la canción, entonces,
viven a través de las voces del cantante, que son presentadas fonográficamente
con la ayuda de técnicas de grabación.[12]
En este sentido, Greg Milner
nos recuerda que, actualmente,
si estás
escuchando una canción en una radio que reproduce rock, pop o R&B nuevo o
más o menos reciente, lo más probable es que haya una gran posibilidad de que
las voces hayan sido procesadas durante la grabación o la mezcla con Auto-Tune,
un software que corrige automáticamente la afinación de un cantante, que puede
crear un efecto inhumano. Todo este tiempo estuviste escuchando voces
distintivamente inhumanas, pensándolas como humanas.[13]
En este trabajo proponemos analizar el uso
del procesador autotune[14]
de la canción "Goteo" perteneciente a Duki,
cantante argentino de trap,[15]
en el fonograma registrado para el ciclo Paredón
session[16]
(en adelante, el fonograma en vivo).[17]
El centro de interés radicará en indagar tanto en las motivaciones que llevaron
al uso de este procesador, como en la modalidad en la que ha sido empleado para
modelar la persona musical y la vocalidad resultante.
Para ello, comenzaremos por exponer una breve historia del autotune, tomando en
consideración no solamente sus aspectos técnicos, sino también los usos
creativos que se han hecho de él y las controversias que, desde su lanzamiento
a fines del siglo XX hasta la fecha, continúan gravitando a su alrededor.
Luego, realizaremos una contextualización sucinta del trap
desde sus orígenes en los Estados Unidos hasta la actualidad del estilo en la
Argentina. Esto nos llevará directamente a la figura de Duki,
de quien haremos una minima biographica
sobre su carrera y las características salientes de su música. El análisis del
objeto de estudio dinamizará al fonograma elegido con el marco teórico
propuesto. En este sentido, comenzaremos por describir aspectos del fonograma
que consideramos pertinentes, para luego avanzar hacia el análisis de la
"persona musical",[18] su
diseño, cómo tensiona ésta con el concepto de máscara y de qué manera el autotune se erige
como un rasgo saliente de la vocalidad resultante. El
análisis será complementado por los aportes que Mariano Bilinkis[19]
(ingeniero de sonido que mezcló y masterizó el fonograma en vivo) y Ramiro
Molina[20]
(guitarrista que tocó en el fonograma en vivo) han realizado en el marco de
entrevistas otorgadas al autor de este trabajo. Para finalizar, acompañaremos
las conclusiones generales referidas a "Goteo" con reflexiones de
naturaleza más amplia sobre las problemáticas de autenticidad y engaño que
suelen gravitar en torno a la producción fonográfica en el trap.
El Auto-Tune es un software de audio concebido originalmente como una herramienta de corrección
de afinación. Diseñado por Harold Andrew “Andy” Hildebrand (Coronado, Estados
Unidos), ingeniero geofísico de profesión y flautista aficionado, quien enfocó
su trabajo en el desarrollo de métodos digitales de procesamiento de señal que
pudiesen ser utilizados para identificar la presencia de depósitos de petróleo
a partir del análisis de reflexiones sonoras de las capas subterráneas de la
tierra producidas por la explosión de dinamita. En 1989, Hildebrand decidió
alejarse de la ingeniería geofísica para dedicarse a la música, comenzando sus
estudios formales en la Escuela de Música de Shephard
(Universidad de Rice, Texas, Estados Unidos). Allí nació su intuición en
relación a la posibilidad de tomar como punto de partida el modelo
originalmente elaborado con propósitos geofísicos para crear un software capaz
de detectar, evaluar y modificar, todo en tiempo real, la afinación de una
melodía cantada. En el año 1996, luego
de desarrollar y publicar exitosamente diversos softwares de procesamiento de
sonido con base en la tecnología DSP,[21] Hildebrand creó a partir del modelo
matemático[22]
utilizado en sus investigaciones previas la primera versión estable del
software Auto-Tune, que sería el primero capaz de modificar en tiempo real y de
manera semi automática[23] la
afinación de una voz grabada. O, recuperando la expresión de Jaime Altozano,
ampliamente aceptada tanto por especialistas y no especialistas en la materia,
el responsable de “crear la caja mágica que hacía que todo el mundo pudiera
cantar”.[24] Un
año después, en 1997, Hildebrand fundó la empresa Antares, que será la
encargada de comercializar el software Antares Auto-Tune y sus derivados desde
entonces hasta la actualidad. La primera versión del software fue concebida
como plug-in,[25]
para ser usado en una DAW.[26] En
la imagen expuesta a continuación mostramos la interfaz gráfica de la primera
versión software del Antares
Auto-Tune (Imagen 1):
Imagen 1:
interfaz gráfica del software Antares Auto-Tune
en su versión plug-in de 1997.
Fuente: http://www.dancetech.com/item.cfm?threadid=357&lang=0
Es importante señalar que, desde la intención
original de Hildebrand, el Auto-Tune se diferencia de otros procesamientos
analógicos de la voz, tales como el Vocoder o la TalkBox, que, si bien pueden producir una resultante sonora
similar, difieren tanto respecto de su intención original como del entorno en
el que funcionan. Mientras que tanto el Vocoder[27]
como la TalkBox fueron empleados en la producción
fonográfica como un efecto, la finalidad original del Auto-Tune fue la de
corregir interpretaciones vocales cuya afinación fuese considerada como
imprecisa o incorrecta.
Resulta pertinente recordar que antes de la
creación y comercialización del Antares Auto-Tune a finales de los años ‘90,
existieron prácticas de producción fonográfica mediante las que se buscaba
modificar la afinación de una melodía vocal grabada. En efecto, la siguiente
cita recupera la palabra del ingeniero de audio argentino Gustavo Borner, en la que describe las dificultades que tales
prácticas implicaban para su concreción:
Al final de
los ‘80 y principios de los ‘90 afinábamos con lo que había a mano. La AMS DMX
15-80S y el Eventide H3000 tenían cambio de tono
(pitch shifter), así que pasabas la grabación de un
canal a otro en una máquina de 24, 42 o 48 canales e ibas pinchando en cada
canal nuevo, pasando por uno de estos aparatos con los céntimos de afinación
correctos. ¡Tardabas años![28]
En resumen, la novedad que introdujo el
Antares Auto-Tune fue triple: en primer lugar, a diferencia del Vocoder o de la TalkBox, continuó
el cambio iniciado por el procesador Eventide H3000.
Es decir, en primer lugar, el Auto-Tune es un procesador programado para
funcionar en un entorno digital; segundo, es capaz de realizar la modificación
de altura en tiempo real, y a velocidades que pueden acercarse a lo
audiblemente instantáneo. Finalmente, en tercer lugar, la modificación de
altura la realiza el software de manera semi automática.
La incorporación del Auto-Tune a las
producciones musicales implicó un enorme avance para la industria musical,
principalmente en términos de ahorro de tiempo y eficiencia en instancias de
postproducción. Por su capacidad de procesamiento en tiempo real y fácil
operación, redujo drásticamente los tiempos que, previo a su utilización, eran
necesarios para regrabar interpretaciones y/o editar manualmente
interpretaciones vocales con afinaciones defectuosas. En palabras de
Hildebrand, “el impacto real de Auto-Tune es que cambió la forma en la que los
estudios producen las voces”.[29]
2.2. Entre creación y controversia
En el mes de octubre de 1998, la cantante
Cher publicó su canción "Believe",[30]
producida por Mark Taylor y Brian Rawling. En ella se
podía apreciar una transformación en el sonido de la voz que asalta a la
audición. Entrevistados en su momento,[31]
ambos productores no admitieron públicamente que se trataba de un uso heterodoxo del Auto-Tune, mientras que Cher
reconoció[32]
el uso extremo de un efecto empleado como factor de diferenciación de esta
canción respecto de la música mainstream
del momento, sin entrar en detalles. Según Eckard, de
esta canción “lo más memorable no fue que las vocales no sonaban mecánicas o
sintetizadas (eso ya se había hecho antes), sino la forma en que se movían,
brincando de pitch en pitch”.[33]
Lahiteau amplía:
Era algo que saltaba al oído y que podía confundirse con una falla,
una imperfección grosera. Hacía que la voz sonara artificial e inhumana, como
si Cher cantara desde un cadalso de bytes. Y era precisamente eso lo que la
hacía atractiva y pregnante. Algo no estaba bien y
era imposible que la atención del oyente no fuera seducida por esa extrañeza.[34]
Concretamente, la producción de este melisma
digital[35] se
debe a un uso específico de uno de los parámetros del autotune: el Retune speed.[36]
Su función permite al usuario configurar cuántos milisegundos le tomará al
software corregir la afinación de las notas de la melodía procesada. Si éste es configurado a cero milisegundos, la
modificación de la altura será audiblemente instantánea,[37]
alterando drásticamente la afinación original de la melodía. Además del centro
de afinación de cada nota, el pasaje entre cada una de ellas también se verá
comprometido por el quasi
nulo tiempo disponible para cambiar "humanamente" de una nota a otra.
Esto resulta en la sonoridad inhumana y "robótica" con la que se
acostumbra describir este modo de empleo del autotune, en la que se suele
apreciar una discretización de las notas que conforman una melodía vocal
grabada. Esta configuración se conoció y popularizó en el ámbito de la
producción fonográfica como zero setting o hard tuning,[38]
mientras que la recepción no especializada de esta resultante sonora lo llamó
en un primer momento “Cher effect" o efecto Cher. A este le siguió, en el año
2005, el “T-Pain
effect” o “efecto T-Pain”,
producto del uso explícito y permanente que el rapero estadounidense Faheem Resheed Najm (1984, Estados Unidos), conocido popularmente como T-Pain, hizo del Auto-Tune
en su álbum Rappa Turnt Sanga (Konvict, Jive, Zomba) lanzado ese año. De acuerdo con la periodista
especializada Lobad Noor, “Fue el uso pivotante que
T-Pain hizo de la tecnología como una herramienta
estilística, más que como una ayuda para mejorar vocales defectuosas, lo que
empujó al efecto vocal más aún dentro del mainstream
y propulsó otros experimentos con él también”.[39]
Cabe destacar que la cantidad de autotune,
identificable a través de la interfaz gráfica del plugin, y la extensión de su
empleo (cuántas veces es utilizado a lo largo de toda la duración del fonograma)
no es lo único que diferencia el uso de este procesamiento entre T-Pain y Cher. La diferencia, fundamental para nuestro
trabajo, se encuentra en el momento de la performance en el que el software fue
utilizado. En este sentido, resulta pertinente recuperar las
conceptualizaciones de input device y output device[40] que
permiten pensar el uso de los procesadores digitales en las diferentes
instancias de una performance grabada. Mientras que "Believe"
contiene fragmentos de la letra estratégicamente procesados con la
configuración hard tuning, el
procesamiento es realizado a posteriori de la grabación, en la instancia de
postproducción del fonograma. Es decir, el Auto-Tune
fue utilizado como output device. Por el contrario, T-Pain
utiliza el Auto-Tune en su configuración
hard tuning
durante la performance vocal. Es decir que el registro fonográfico que se hace
de la performance del cantante ya incluye al Auto-Tune en esta configuración usado como input device.
Más allá de todo lo
descripto hasta aquí, encontramos que el uso creativo del autotune no evitó la rápida
emergencia de múltiples controversias que, según entendemos, parten
fundamentalmente de dos conceptos íntimamente vinculados entre sí: autenticidad
y engaño. En cuanto a la primera, se impone recordar que, más allá de los usos
del autotune
y de los procesamientos de sonido que pueden ser calificados como artificiosos,
las tecnologías de transmisión, registro, procesamiento y reproducción del
sonido se han valido históricamente de conocimientos sobre el aparato auditivo
humano (particularmente los estudios vinculados con la Psicoacústica)
para desarrollar artefactos tecnológicos eficaces para sus fines. En este
sentido y a modo de ejemplo, podemos mencionar que los estudios realizados para
el desarrollo de la telefonía o del formato MP3 incluyen decisiones que
"engañan" al aparato auditivo, explotando diferentes aspectos de
éste.[41]
Por otro lado, es conocido ya el argumento de
que cualquier operación realizada a posteriori sobre el sonido
registrado implica algún grado de pérdida de autenticidad de éste. Recordemos,
por ejemplo, la crítica acérrima que realizara Eric Clapton en relación con la
música grabada, ponderando la música en vivo[42]
o la iniciativa Live means
live, lanzada en el año 2013 en la misma línea.[43]
Concomitantemente, entendemos que las controversias en torno al engaño[44] que
implica para muchos el uso del autotune comparten el mismo origen que aquellas relacionadas
con la autenticidad,[45]
aunque puntualizan en una acción de la performance total: cantar. Siempre en
línea con la concepción documental mencionada, reforzado por el supuesto de que
quien canta tiene las condiciones para hacerlo por sus propios medios y sin
ayuda alguna (entre las cuales se pondera, principalmente, la capacidad de
afinar correctamente los sonidos a cantar), el engaño sería producido por la
introducción de un procesador que afina lo que quien canta no logra hacer por
sus propios medios. Como refieren Díaz-Pinto y Robledo Thompson respecto de la
música popular urbana:
… el uso consuetudinario y opaco - según la conceptualización de Brøvig-Hannsen y Danielsen (2016)
-, que estos músicos hacen en sus producciones fonográficas de tecnologías de
modificación de la voz - como el plugin AutoTune-, han hecho que audiencias más familiarizadas con
los preceptos estético-vocales de otros géneros musicales tiendan a concebir la
incorporación de las mencionadas herramientas de edición no tanto como marcas
estilísticas, sino como testimonio de una falta de habilidad para cantar sin ellas.[46]
En resumen, las controversias planteadas
hasta aquí obligan a formular interrogantes centrales para nuestro trabajo.
Para el trap, ¿Qué significa cantar? ¿Qué
competencias, habilidades y/o cualidades son necesarias para poder hacerlo? Y,
perfilando los interrogantes hacia el centro de interés de nuestro trabajo,
¿hasta qué punto un/a/x cantante puede valerse de recursos tecnológicos para
realizar su performance, sin que esto magulle su autenticidad en cuanto a su
capacidad para cantar?
3.1 Orígenes y características
El trap se originó
a comienzos de los años noventa en los barrios marginales de la ciudad de
Atlanta, Estados Unidos. La música producida bajo esta etiqueta,
particularmente sus letras, buscaba exteriorizar las penurias vividas por los
habitantes de los suburbios de esta ciudad, en gran medida marginalizados[47] Originalmente concebido como un subgénero del
rap, en el trap confluyen también características del
hip hop, el R&B y el freestyle.[48] A
comienzos del siglo XXI, más precisamente entre los años 2000 y 2010, el trap migró desde Estados Unidos hacia España y
Latinoamérica, dando lugar a la emergencia de nuevos artistas y estilos de trap característicos de estos lugares. En el trap latino, son destacables la práctica de la rima
improvisada, las “batallas”, la adhesión explícita a la estética bling-bling, el
uso deliberado de modificaciones de palabras del español, y también la
inclusión en las letras de palabras y/o expresiones tomadas literalmente del
inglés. En cuanto al contenido de las letras, suelen tratarse de historias
vivenciadas por quien las canta, relatadas en primera persona. Las temáticas
pueden ir desde situaciones de marginalidad y exclusión, hasta letras más
superficiales y clichés, historias de éxito, con un objetivo de consumo más
cercano al mainstream.
En este sentido, si bien no forman parte del
centro de interés de este trabajo, es necesario recalcar que el trap, al igual que los estilos englobados dentro de las
etiquetas música urbana y la cultura reggaetón,[49]
no están exentos de críticas. Ellos han sido y continúan siendo objeto de
críticas por sus contenidos, señalados muchas veces como sexistas, misóginos,
violentos y, en ocasiones también, racistas.
En cuanto a sus características musicales, se
conforma por rimas que suelen organizarse en pie ternario. Dado que el énfasis
de la rima está puesto en cómo combinar palabras para producir una expresión
singular, la elaboración melódica de la rima (asociada directamente a la
capacidad que el cantante debería tener para poder realizarla), quedaría, en
principio, en un segundo plano, dando como resultado melodías cuyas
características suelen ser la nota repetida y un movimiento melódico acotado,
que tiene lugar usualmente en un ámbito registral reducido (alcanzando, por
ejemplo, rara vez la octava). La base, o beat,
puede ser un módulo rítmico secuenciado repetitivamente por el tiempo que dure
la rima, o bien ser una pista compuesta para la ocasión que contenga además del
módulo rítmico otros elementos sonoros (una línea melódica de bajo, una
progresión armónica de pocos acordes, entre algunas posibilidades). En derivas
estilísticas en las que el trap se asocia al estilo
canción, estos módulos (usualmente de cuatro u ocho tiempos) pueden recombinarse
para generar las secciones típicas de este estilo (principalmente, estrofas y
estribillos) reiterando y recombinando estos módulos de diferentes maneras. El
tempo característico del trap suele ubicarse en el
rango entre los 130 y 170 PPM.[50]
La persona que encarna el rol de cantante en
el trap suele estar acompañada, en la enorme mayoría
de los casos, por otra que cumple el rol de productor. En efecto, el origen de
la mayoría de las canciones de trap es a partir del
encuentro entre dos personas: cantante y productor o beatmaker.[51]
Mientras el rol del primero estaría delimitado casi exclusivamente a la
creación de las rimas, el productor es el responsable del sonido resultante de
la canción (Johansson, 2020). Habitualmente, el proceso creativo recupera la práctica
improvisatoria del freestyle. La continuación de la
composición es realizada en entornos fonográficos, principalmente digitales. En
efecto, muchos productores cuentan con una computadora portátil que funciona a
modo de meta-instrumento,[52] una
placa de sonido y un micrófono. Con este kit,
que para épocas anteriores hubiera requerido “ … una pequeña empresa al
servicio del músico …”,[53] los
artistas registran, procesan y componen la totalidad de la canción. En línea
con esta práctica, es frecuente que la creación de estas músicas se realice más
a partir de la utilización de una DAW, samples, instrumentos virtuales y procesamientos sonoros in the box,[54] que
a partir del registro de instrumentos mecánico-acústicos, tal como sucede en
otros estilos musicales. Sin embargo, esto no inhabilita la inclusión de tales
instrumentos en el proceso creativo, o en versiones posteriores a la creación
de la canción original.
Cabe destacar que el trap,
es un estilo musical que se caracteriza por estar fuertemente procesado en su
presentación fonográfica. Uno de los procesamientos más destacados en este
sentido es el uso del autotune
en su configuración hard tuning para
el procesamiento de las voces grabadas. Según Ramiro Molina, " … siempre
lo usan. Para estos pibes el autotune es parte
de su estética, es un instrumento más”.[55]
En este estilo, es relativamente habitual
encontrar que tanto cantante como productor no necesariamente tienen una
formación musical previa, en términos de haber realizado y finalizado trayectos
académicos institucionales vinculados con la música. En efecto, el acceso y la
posibilidad de que individuos sin formación musical (académica o no) puedan
crear música se debe en gran medida a la posibilidad que brinda internet para
acceder, de manera legal o a través de la piratería, a los softwares y aplicaciones de producción musical. Como sostiene
Mariano Zukerfeld, además de que el acceso al
hardware necesario para producir música se facilita progresivamente como
consecuencia de la Ley de Moore, “En cualquier caso, parece claro que la
difusión de bienes informacionales relativos a la creación musical, entonces,
permite que el amateur, el músico aficionado, el que solo quiere jugar con la
música, pueda componer”.[56]
El hecho de que el trap
haya surgido y se haya popularizado paralelamente a Internet tiene una doble
incidencia en el estilo y su organización. Simultáneamente, permite hacer uso
de las redes sociales y sus plataformas para poder difundir el material
producido, y establecer redes con quienes escuchan y siguen a sus artistas.
Entrado el siglo XXI, con el advenimiento de la web 2.0 y de las plataformas
UGC[57]
como MySpace o YouTube, entre otras, los artistas y productores musicales ya no
dependen de los canales habituales de la industria discográfica y los medios de
comunicación tradicionales (televisión y radio, como los ejemplos más
salientes) para difundir sus creaciones, sino que pueden hacer uso de estas
para difundir su material, acercarse a sus pares y fidelizar oyentes[58].
Más allá de las modificaciones introducidas
por los desarrollos tecnológicos en relación con las prácticas de producción,
distribución y consumo de la música en el siglo XXI, es pertinente para nuestro
trabajo encuadrar localmente, desde la Argentina, en lo que Guadalupe Gallo y
Pablo Semán nominan como escena musical
“post-Cromañón”.[59] Su
característica sobresaliente es la fragmentación de la escena musical previa al
trágico suceso. De acuerdo con Gallo y Semán, una
escena pre-Cromañón está configurada en apariencia como única, mediada por la
industria discográfica, los medios de comunicación hegemónicos y las prácticas
de comunicación y difusión asociadas a ellos. Luego de la tragedia,[60] los
autores observan la conformación de una nueva configuración, donde ocurre una
dispersión y reagrupamiento atomizado de los actores.
Por último, también es importante considerar
la reunión de etapas de trabajo[61] que
se produce en este estilo, principalmente en torno al productor, en comparación
a otros estilos donde las etapas de producción fonográfica están más claramente
definidas y separadas entre sí.
Desde que el trap argentino nació y logró masificarse, haciéndose
popular a través de la difusión por las redes sociales (principalmente YouTube e Instagram), podemos nombrar a diversos artistas que han alcanzado
un alto grado de popularidad hasta la fecha.
Entre ellos se encuentra
Mauro Lombardo Quiroga (Ciudad de Buenos Aires, 1996), conocido popularmente
como Duki. Lombardo comenzó su incursión en la música
conformando primero agrupaciones que interpretaron más bien música de estilos
relacionados con el rock. En 2010, entró en contacto con la escena del freestyle
porteño, que se configuraría rápidamente como su interés principal. La
atracción que le produjo este estilo lo llevó a participar cada vez más en
“batallas” donde comenzaría a forjar su estilo personal.
En el año 2016 su
popularidad aumentó exponencialmente, en primer lugar, como consecuencia de
haber ganado la edición de El quinto
escalón, certamen dedicado a la promoción y difusión de batallas de rap en
Latinoamérica. En segundo lugar, con la publicación de "She don’t give
a FO", primera canción que alcanzaría el top 100 de Billboard Argentina. El debut discográfico de Duki ocurrió en 2018 con el álbum Super Sangre Joven (SSJ Records - DALE
PLAY Records), lanzado en el mes de agosto de ese
año, con la publicación del sencillo "Goteo". La canción alcanzó el
puesto número 10 en los Billboard charts Argentina hot 100 y en España. En el mismo año, Duki
participó de la ceremonia de los Premios Gardel. A pesar de no haber sido
nominado a ninguna de las categorías, Duki fue
convocado para la el acto de introducción de la ceremonia, en la que cantó su
canción "Rockstar". Como era de esperarse,
utilizó autotune
en su configuración hard tuning. Al
cierre de la ceremonia, Charly García, quien fuera galardonado con el premio
Gardel de Oro por su álbum Random, concluyó su dedicatoria realizada por la premiación
con una lapidaria afirmación, en un claro guiño a la performance inicial de Duki: “ … hay que prohibir el Auto-Tune … gracias”.[62]
El phonographic staging refiere a “una suerte de escenografía
acusmática, en la que efectos tales como reverb, eco, filtrados y sobre grabación actúan como
mediadores de fuentes sonoras grabadas”.[63]
Para nuestro trabajo usaremos la traducción “presentación fonográfica”,
propuesta por Díaz-Pinto y Robledo Thompson. Este concepto nos permitirá
indagar en las operaciones realizadas y los procesadores utilizados en el
diseño de la voz grabada. Esta voz, a su vez, se corresponde con una persona
determinada. En este sentido, utilizaremos las categorías propuestas por Alan
F. Moore, perfomer
(persona real, quien canta) - persona (o persona musical, identidad asumida por
quien canta en el fonograma) - protagonista (persona musical específica,
vinculada a la letra y a la narrativa que conforman la canción). En la misma
línea, realizaremos indagaciones en torno a cuán real o ficticia es la persona,
la situación en la que ella se encuentra (descripta también en términos de real
o ficticia) y, finalmente, la posición del cantante, en tanto persona
involucrada en la lírica de la canción, o como observador de la misma.
En cuanto al concepto de máscara, tomaremos
la definición que propone Philip Tagg, en la que
articula máscara con el concepto de persona:
… el
significado original de la palabra en latín persona es ‘máscara…llevada por
actores en el drama griego y romano’. Los significados transferidos en cuando
al rol performado, personalidad, etc., derivan del
hecho de que revelar la verdadera naturaleza de un personaje dramático
involucraba proyectar la voz de dicho individuo a través de la máscara llevada
por el actor que asumía ese rol. Su voz tenía que, literalmente, sonar (sonare) a través (per) de la máscara - vox personans - hacia el auditorio, hacia el interior de la
audiencia.[64]
Finalmente, usaremos el
concepto de vocalidad, elaborado por Katherine Meizel, definida como “ ‘todo lo que se vocaliza (lo que
suena y se escucha como voz)’, sin que ello refiera únicamente a las palabras
que imparte, al timbre o las técnicas de su producción”.[65] Este
concepto habilita pensar la voz grabada
y procesada como vocalidades, es decir, como
“ensamblajes ecológicos y tecnológicos en tanto formas de vida que desbordan la
condición del humano: el cyborg,
lo monstruoso o el híbrido inter-especies”.[66]
5. Análisis
Para la realización del
análisis haremos una comparación de diferentes aspectos del fonograma original
y del fonograma en vivo de "Goteo". Motiva esta decisión poder
entender y precisar cuáles son las particularidades que guarda este último
respecto del original.
Cabe señalar que el ciclo llamado Paredón sessions
fue concebido con ciertas cualidades y características específicas. De la
hemerografía consultada, recuperamos la siguiente cita que ilustra de manera
sucinta las características principales del ciclo:
Al combinar
cuatro elementos (artista, público, banda en vivo y paredón) el proyecto se
vuelve una experiencia única y muestra cómo las figuras de Trap,
junto a una banda en vivo formada por prestigiosos músicos, salen de su zona de
confort para reversionar sus propios hits y convertirlos en nuevos tracks.[67]
La siguiente imagen (captura del video en vivo),
ilustra la cita anterior:
Imagen 2:
captura de la presentación en vivo de "Goteo".
Fuente:
https://billboard.com.ar/por-primera-vez-duki-reversiono-goteo-con-bases-en-vivo-mira/
El fonograma en vivo de "Goteo", tomado como objeto de estudio para
nuestro trabajo, guarda cuantiosas similitudes con el fonograma original. La
primera de ellas es la letra cantada. A excepción de la introducción (referida,
en adelante, como intro), en el fonograma en vivo se
conserva la totalidad de la letra original. A continuación, transcribimos los
pasajes que corresponden a cada parte de la canción:[68]
Intro
Yeah, hmm / Ey, ey, ey,
ey, ey / Check /
Verso 1
Quiero un
Felipe Patek / Rolex, Cartier pa'
no ver la hora (Felipe Patek) / Siempre sé lo que hay
que hacer / Duplico otra vez, subo como el dólar (duplico otra ve') / Viven
pendiente 'e mi name / Mi plata, mi ex, shout-out para Lola (sos buena
persona) / No me gustaron sus reglas y fue / Igual toqué los tres día' en el Lolla' (yay, yay)
/
Estribillo
Me puse la'
Gucci con un short de Nike / Buzo y cadena, estoy que goteo (estoy que goteo) /
Sigo volando 'e ciudad en ciudad / Tumbando el club, shout-out
para Neo (estoy que goteo) / Con cara de que nada va a salir mal / Soy un rockstar, 'toy que goteo (estoy
que goteo) / Estoy donde yo le' dije que iba a estar / ¿Ustede'
dónde están? No lo' veo (yay, yay)
/
Verso 2
My life, fast life,
secuencias que van a mil / Falta calma, por eso tomo otra pill
/ No sé cómo dormir, ella se volvió a ir / 6 AM, vuelo pa'
Madrid / Y mientra' fumo le pido a la luna volver a
verte / Yo no sé qué voy a hacer / Solamente siento que me va a atrapar lento
la muerte, mujer /
Verso 3
Toy
que no lo creo / Transpiro oro por los dedo' (transpiro, que) / 'Toy que no lo' veo / El humo me dejó ciego (no veo bien) /
'Toy que no lo creo El Duko
lo hizo de nuevo (no creo que) /'Toy que, ay, goteo
(eh)
Outro (fragmento de Verso 2)
Y mientra' fumo le pido a la luna volver a verte / Yo no sé
qué voy a hacer / Solamente siento que me va a atrapar lento la muerte, mujer
//
Por lo que describe la letra, podemos
entender que se trata de una canción en la que Duki
quiere poner de relieve y mostrar el momento vivido en su historia como
artista, un momento culminante relacionado no solamente con haber alcanzado un
posicionamiento exitoso en el ambiente, sino, principalmente, con el buen pasar
económico logrado y todo lo que éste habilita. En efecto, en la letra
encontramos algunos de los elementos propios de la estética bling bling propios del hip hop, que Arias
Salvado define como una
… forma de vestir heredada del hip hop que, si
bien varía a lo largo de los años, se caracteriza principalmente por el empleo
de cadenas de oro, gafas de sol, gorras o bandanas, ropa deportiva ancha y
zapatillas de deporte, con predilección por las marcas de lujo.[69]
5.2 Música y presentación fonográfica
En la siguiente tabla agrupamos
comparativamente algunos aspectos concernientes a la música y a la presentación
fonográfica que el fonograma en vivo comparte con el fonograma original:
Tabla 1: comparación entre los fonogramas original y
en vivo en Paredón session
de "Goteo".
Parámetro
/ Aspecto |
Original |
En
vivo |
Tempo |
ca.
150 PPM |
idem |
Centro
armónico |
D#m |
idem
|
Progresión
armónica |
I bVII bVI ;
bVI bVII I |
idem |
Esquema
formal[70] |
Intro
- V1 - E - V2 - E - V3 - V1 - E - V3 - Outro |
idem |
Uso
del autotune |
Sí
(¿input/output device?) |
Sí (input y output device) |
Fuente:
elaboración propia.
A
continuación, agrupamos las características singulares de cada fonograma, desde
la perspectiva de análisis de estratos funcionales o functional layers (Moore, 2012):
Tabla 2: comparación entre versiones de
"Goteo", puntualizando los instrumentos y sonidos que ocupan cada uno
de los estratos funcionales o functional layers (Cf. Moore, 2012).
Estrato |
Original |
En
vivo |
Pulsación
explícita |
Máquina
de ritmo |
Batería
|
Bajo
funcional |
Sintetizador
(synth bass) |
Bajo
eléctrico |
Melódico |
Primario:
voz principal; secundario: voz coro, melodías teclado |
Primario:
Voz principal; Secundario: voz secundaria (pregrabada), flauta traversa |
Armónico |
Sintetizador
simil chiptune[71] |
Teclado;
violín, violonchelo,
flauta traversa |
Fuente: elaboración propia.
Como observamos en la Tabla 2, el fonograma
en vivo está conformado por instrumentos ejecutados, precisamente, por seres
humanos, en vivo y en directo. Al momento de realizar el presente trabajo no
podemos afirmar lo mismo respecto del fonograma original.[72]
La decisión de realizar la presentación en vivo, con una banda integrada por
músicos tocando también en vivo (desmarcándose del formato cantante y beatmaker, habitual
para la escena del freestyle
y las batallas) fue una decisión creativa.[73]
Convocados por Juan Giménez Kuj, director musical a
cargo y bajista del fonograma en vivo, la tarea de los músicos[74]
consistió esencialmente en “llevar al vivo” el fonograma original. Mientras que
la combinación de violín, violonchelo y teclados (con participación ocasional
de la flauta traversa) retoman el estrato armónico del sintetizador símil chiptune, el bajo
eléctrico y la guitarra eléctrica replican en un movimiento paralelo ritmo
armónico y la progresión de acordes. La batería conserva el patrón rítmico
propuesto por la máquina de ritmos en el fonograma original, aunque,
considerando la situación de la performance en vivo, incorpora pasajes y fills ausentes en
el original. Según Ramiro Molina:
el vivo es
la oportunidad también para darle color a la - versión - original. En estos
estilos está bueno meterle onda, que tenga buen groove.
Para eso, muchas veces agregamos fills y cosas que
vienen del R&B, del soul; también del Gospel … hay mucho gospel chops,
fraseo lineal, y esas cosas. Son arreglos que por ahí no están en la versión
original, pero que hacen a la vibe del vivo.[75]
Resulta interesante destacar que la banda
cuenta con una pista que se reproduce en forma sincronizada con su ejecución.
Además de afirmar que esto es una práctica común en este estilo musical, Molina
comenta que
en la pista
tenemos todo. Todos los sonidos, fills y cosas que
tiene la versión original y que nosotros no podemos hacer con nuestros
instrumentos, están ahí. No es playback, pero está bueno sentirse apoyado por
la pista. A veces aparte del clic - metrónomo - hasta tenemos avisos y cuentas
para nosotros grabadas ahí.[76]
En el mismo sentido, amplía:
la pista y
cómo hacés la pista es fundamental para esta música.
No es solamente ponerle los sonidos que no vamos a tocar y listo. Tenés que hacer que esté bueno, que aporte al vibe del vivo. A veces vamos antes de tocar a los lugares
para probar solamente la pista, a ver cómo viene de agudos, cómo están los graves…todo
tiene que estar en su lugar para que la vibe del vivo
sea la mejor.[77]
Como tendencia general, si bien las
características melódicas descriptas anteriormente se conservan (ámbito
reducido y tendencia a la nota repetida), encontramos que en el fonograma en
vivo hay una tendencia del registro en el que Duki
canta más agudo que en el original.
Imagen 3: transcripciones
de la primera frase de la primera repetición del estribillo de "Goteo" en
versión original y en vivo.
Fuente:
elaboración propia.
Esta tendencia alcanza su punto culminante en
la primera repetición del estribillo, donde Duki
realiza un ascenso melódico hasta la altura fa#4, que se configura como clímax
melódico de la canción. Asimismo, la interpreta también como nota repetida, tal
como lo muestra la siguiente transcripción:
Imagen 4: transcripciones
de la primera frase de la primera repetición del estribillo de "Goteo" en los
fonogramas original y en vivo.
Fuente:
elaboración propia.
A partir de lo expresado anteriormente por
Molina, y como producto de nuestra propia interpretación del fonograma en vivo,
podemos inferir que esta modificación, que lleva prácticamente a llevar a Duki al extremo de su ámbito vocal, puede relacionarse con
la euforia y el bienestar experimentado por el cantante (lo que Molina refiere
como vibe)
al interpretar la canción en vivo y en directo.
En cuanto a la presentación fonográfica de la
voz de Duki en el fonograma en vivo, podemos afirmar
que guarda una relación muy próxima con el fonograma original. En términos de
espacialidad, está ubicada al centro del campo estéreo y en un lugar
protagónico en términos de nivel. Como diferencia entre ambas, podemos señalar
que a la audición comparativa entre versiones, en la original no se oyen
sonidos paraverbales entre frases (por ejemplo, las respiraciones), mientras
que en el fonograma en vivo pueden escucharse con cierta claridad.
En cuanto al uso del autotune, en la audición del fonograma podemos apreciar
el uso de este procesamiento en su configuración hard tuning. Asimismo, durante la entrevista
realizada a Ramiro Molina pudimos recabar que el software utilizado en esta
oportunidad como autotune
"es el Waves Tune, en su modo real time. No es el de Antares ni el Melodyne, que son para estudio, para cosas más finas. Este
es bastante liviano y te permite correrlo como plug-in para usarlo en tiempo real en el vivo".[78] Las
referencias hemerográficas consultadas refuerzan lo mencionado por Molina.
Además, el guitarrista también comenta que es una práctica instalada que, en
este estilo, se cuente con una persona dedicada a la operación del autotune en vivo:
el tunedoctor es
alguien más en la banda que se encarga de manejar el autotune, de tirar efectos (reverbs, delay) en
tiempo real, durante el show. Sabe cuándo tiene que poner el speed en 10, o en
12, para que agarre la nota que tiene que ser. A veces es el sonidista del
vivo, pero sino suele haber alguien de la banda que se encarga de eso.[79]
Tunedoctor[80] es un neologismo que, según
Molina, es común encontrar en la jerga del trap para
referirse a quien está a cargo de la configuración del autotune, entre otros procesos
que se le hacen a la voz en tiempo real, durante el show en vivo. Sin embargo,
cabe destacar que en los créditos publicados del fonograma en vivo no hay
mención al rol Tunedoctor,
ni tampoco a la/s persona/s que estuvieron a cargo de la operación de sonido en
vivo y en directo, lo que oscurece relativamente este rol y cómo fue
configurado el autotune
en tanto input device
para el fonograma en vivo.
El fonograma en vivo de "Goteo" fue
mezclado y masterizado por Mariano Bilinkis. Según él, la propuesta de trabajo para la
postproducción del fonograma fue no distanciarse demasiado de algunos aspectos
del fonograma original, pero destacar las cuestiones propias de la
interpretación en vivo y en directo con instrumentos reales. En este sentido, Bilinkis refiere haber realizado procesamientos a los
instrumentos para que, a la audición, tuvieran mayor “impacto”.[81] A
los fines de este trabajo, resulta revelador que se haya usado autotune
nuevamente en la etapa de postproducción del fonograma, es decir, ahora como output device.
Según Bilinkis, esto se realizó para terminar de
pulir algunas imperfecciones mínimas producto del uso del autotune en su configuración hard tuning como input device,
es decir, durante la interpretación en vivo: “En la mezcla usé un poco de autotune para corregir algunas mínimas cosas que no
vinieron bien del vivo, pero fue mínimo”.[82]
5.3 Conclusión parcial: persona, máscara, vocalidad
A partir de los conceptos de persona (Moore),
máscara (Tagg) y vocalidad
(Meizel) que fueron definidos anteriormente,
encontramos que el fonograma en vivo de "Goteo" guarda una gran
cantidad de similitudes con el fonograma original de la canción. El análisis permitió
confirmar también la puesta en acción de la premisa del ciclo Paredón sessions:
el fonograma en vivo de "Goteo" fue instrumentado con instrumentos
reales, tocado por instrumentistas, articulado con la reproducción de una
pista, todo ejecutado en vivo y en directo. El análisis realizado permitió
indagar sobre la persona musical, el potencial de autenticidad de ella, y su
tensión con los procesamientos realizados a la voz grabada.
En cuanto a la persona musical, encontramos
una coincidencia entre el performer (Mauro Lombardo), la persona musical (Duki) y el personaje que es asumido por ambos en la letra
de la canción. En concomitancia con el tipo de letras propias del freestyle y de
las batallas, la narrativa que despliega la letra en "Goteo" es una
pausa en el vertiginoso ascenso de la carrera artística de Duki,
persona musical encarnada por Mauro Lombardo, la persona real. A partir del
análisis realizado, podemos ver cómo en "Goteo" la distinción
categorial propuesta por Moore se subsume en la persona real que, por tratarse
de una letra absolutamente autorreferencial cantada por el mismo autor,
condensa las otras categorías. En efecto, esto permitiría pensar en una
práctica fonográfica cuya intención fue “capturar y reflejar" lo que
Lombardo canta, lo que, de acuerdo con Moore, aumentaría su potencial
percepción de autenticidad por parte del oyente. Desde la narrativa de la
letra, queda claro que el personaje está poniendo como protagonista de la
historia a la persona (Mauro Lombardo) y un momento particular de su vida como
artista (Duki). En efecto, podemos afirmar que tanto
la persona como la situación propuesta son reales. De la misma manera, el
personaje propuesto en "Goteo", sin distinción entre los fonogramas
original o en vivo, se encuentra completamente involucrado en la narrativa de
la canción.
No obstante, es preciso matizar cómo
tensionan estas distinciones categoriales, particularmente la potencial
percepción de autenticidad de la voz, con las decisiones y procesamientos
sonoros operados en ella desde el entorno fonográfico. Como nos permitió
dilucidar el análisis, la presentación fonográfica del personaje realizada en
el fonograma en vivo de la canción no pretende reflejar necesariamente las
cualidades sónicas de la persona real. Más bien, ella es tomada como punto de
partida para crear una nueva sonoridad resultante: una vocalidad.
De esta manera, la vocalidad de Duki
en el fonograma en vivo es el emergente de la interacción entre la voz grabada
de la persona real, compuesta por la melodía, la letra cantada, y los sonidos
paraverbales producidos por los mecanismos de emisión, y la máscara diseñada en
el entorno fonográfico. La elección de esta expresión (entorno fonográfico) no
es casual. Ella es deudora de la atomización y distribución que han tenido las
tecnologías de producción fonográfica y la consecuente facilidad de acceso que
se ha producido, poniendo en jaque los supuestos que sostienen que determinadas
manipulaciones del sonido deben realizarse en un entorno altamente controlado
(el estudio de grabación, por ejemplo, con condiciones acústicas óptimas) y/o
en una etapa en particular de la producción fonográfica (la postproducción, por
ejemplo). Por otro lado, en la máscara diseñada coinciden tanto las intenciones
artísticas como las correctivas. En este sentido, recordamos el comentario de Bilinkis respecto a los procesamientos utilizados en la
instancia de postproducción del fonograma (uso intensivo de ecualización y
compresión; uso dosificado del autotune), así como también la explicación que brindara
Molina en relación con el uso del autotune durante
el fonograma en vivo. En este, la máscara que se diseña, más precisamente el
uso del autotune en hard tuning, interpela la potencialidad de
percepción de autenticidad, considerando que producir los melismas digitales no
sería posible para Duki si no se articula la
capacidad humana para cantar con el uso del autotune en esta configuración
para producirlos. La vocalidad resultante en el
fonograma en vivo es, entonces, diferente ontológicamente respecto de la voz performada en
vivo, o de la voz grabada previa a la postproducción. No es deudora de una
concepción documental de la fonografía, sino que es producida por una
combinación e integración las agencias maquínicas y
humanas en una única sonoridad.
6. Conclusiones
En el presente trabajo propusimos observar y
describir la utilización del autotune en la canción "Goteo", tomando como
referencia el fonograma en vivo. Esta decisión no fue arbitraria, sino que,
habida cuenta de la frecuente utilización del autotune en el ambiente
controlado del estudio de grabación, entendimos necesario indagar en cómo fue
utilizado este procesador considerando las dos instancias que hacen al
fonograma (performance en vivo y en directo y postproducción de la misma). En
este sentido, el análisis llevado a cabo permitió dilucidar diferentes
cuestiones.
En primer lugar, el trabajo permitió
visibilizar el desplazamiento operado sobre el autotune desde su primera
comercialización en 1997 hasta su utilización en la canción "Goteo",
en 2021. Del secretismo intencionado por Hildebrand al afirmar que “… nadie tiene que saber que una corrección
por software fuera utilizada en las voces grabadas"[83]
a la metáfora de la caja negra referida por Jaime Altozano, solo accesible para
los especialistas en la temática, para pasar al uso deliberado y explícito del
procesador. Lo que comenzó con Cher como factor de diferenciación en la música dance de fines del siglo XX es adoptado,
reutilizado y emplazado como factor de coherencia, como rasgo distintivo de
estilo para el trap. Asimismo, el uso del autotune
analizado en este trabajo permitió visibilizar también cómo este procesador ha
desbordado los confines del estudio de grabación. Aquello previamente reservado
a un espacio determinado, con condiciones acústicas altamente controladas, para
ser operado por usuarios especializados (técnico e ingenieros de sonido)
exclusivamente como output device, se reterritorializa
en el trap en home
studios conformados esencialmente a partir de
entornos fonográficos digitales, y hasta en escenarios para performances en
vivo y en directo donde se utiliza como input
device (recordemos en este sentido la figura del tunedoctor citada anteriormente por Molina).
Consideramos oportuno recuperar la palabra de
Omar Varela, reconocido productor de la escena del trap,
en relación al uso del autotune:
“Capaz la gente flashea que es un loco cantando con Auto-Tune, pero para llegar
a esas melodías, a esos quiebres de voz, estamos horas”.[84]
Contrariamente a esta creencia, encontramos en el fonograma en vivo de
"Goteo" una trama compuesta por diferentes instancias y usuarios del
procesador. En este sentido, podemos afirmar que la participación de diversos
actores en su uso, entendiendo esto como la decisión de su inclusión (a cargo
de quien produjo el fonograma), su configuración (a cargo de quien hizo la
producción, o bien de quien cumplía el rol de tunedoctor) y la operación
interactiva del mismo (quien canta), nos permite afirmar que la agencia sobre
el procesador se encuentra distribuida entre diversos
actores. Ampliando en este sentido, indagamos en el doble uso del autotune, en
tanto input device
durante la performance de la canción en vivo y en directo, y en tanto output device
durante la postproducción del fonograma. Cada uno de ellos respondió a motivaciones
y/o necesidades diferentes. En línea con la afirmación vertida por Frith y Zagorski-Thomas en relación con la interpenetración
dinámica y permanente entre decisiones técnicas, estéticas y musicales,
encontramos que el uso del autotune en su configuración hard tuning durante la performance en vivo es
una práctica habitual en el trap, heredada de la
utilización constante del procesador en el hip hop estadounidense de la primera
década del siglo XXI. Entendemos que este modo de uso y configuración
particular del autotune
produce un nuevo desplazamiento para el procesador: de herramienta de
corrección de afinación a instrumento de creación, determinante para el diseño
de vocalidades singulares. En este sentido, Ramiro
Molina es categórico al respecto:
Si les sacás eso [el autotune] a ellos [cantantes de trap]
es como sacarle la guitarra a un guitarrista. Ellos saben perfectamente cómo
quieren sonar. Las melodías las tienen en la cabeza. El tune les ayuda a estos pibes a poder hacer las melodías que tienen
en la cabeza … No te lo sabrán explicar técnicamente, pero te saben decir si
esta nota no va y hay que cortar o cambiar algo…Para todo eso está el tunedoctor. [85]
Por otro lado, la utilización del autotune en la instancia de postproducción, como
output device,
respondió a una finalidad correctiva, para corregir imperfecciones en la
afinación de pasajes melódicos que, producto de la variabilidad propia de la
interacción cantante-autotune,
puedan haber ocurrido durante la performance
en vivo registrada. En efecto, recuperando las palabras de Ramiro Molina, su vibe, impulsaron
a Duki a interpretar diseños melódicos diferentes al
fonograma original, que en algunos pasajes lo llevaron al límite de sus posibilidades
vocales. En este sentido, podemos afirmar que el autotune operó como una red de
contención, asegurando una performance vocal cuya afinación fuese exacta, con
cierto grado de independencia respecto de la afinación interpretada por Duki.
A modo de corolario, agregaremos algunas
reflexiones respecto del autotune
más allá de la canción aquí analizada. Entendemos que la afirmación que circula
popularmente en torno a, como decía Altozano, “la caja mágica con la que
cualquiera puede cantar” está lejos de ser así. En efecto, sostenemos que una
posición tal, más allá de la crítica que pueda realizarse al autotune en tanto
procesamiento que engaña, no hace más que revelar lo que considero como un
peligroso “alturocentrismo”. En este sentido, se pretendería
reducir la complejidad de una voz cantada y las múltiples vocalidades
posibles a partir de la producción fonográfica a la posible valoración respecto
de la (in)capacidad de quien canta para producir sonidos afinados. Si este
fuera el caso, ¿qué sucede con todas las características y cualidades de la voz
que no se relacionan con la producción de alturas normativizadas dentro del
sistema de temperamento igual? ¿Dónde quedaría entonces, con Barthes, el grano
de la voz?
A partir del trabajo realizado podemos
conjeturar que en estilos musicales como el trap la
capacidad de cantar afinadamente más allá del uso del autotune reviste poco (o tal vez
nulo) interés, desplazando el foco de atención hacia otros aspectos, tales como
la capacidad para valerse del autotune para crear melodías, tener buen flow, la performance en vivo y en
directo, así como también el vestuario, por nombrar solo algunos de los
aspectos ya citados. En efecto, y como mostró el análisis, desde el punto de
vista fonográfico la vocalidad resultante no está
limitada únicamente al uso de autotune. En la sonoridad vocal final intervienen otros
procesamientos tales como, por ejemplo, la ecualización y la comprensión, que
pueden ser tan necesarios como el autotune para lograr el “sonido correcto” desde un punto de
vista estilístico.
Este hecho nos obliga a plantear los
siguientes interrogantes, ¿por qué el uso del autotune en las voces grabadas ha
generado y continúa generando controversias, siendo que, en esta música y en
otros estilos musicales también, la modificación de la afinación de la voz
grabada es sólo uno de los múltiples procesamientos que se le realizan, tanto
con fines correctivos como creativos? En efecto, y puntualizando sobre algunas
otras acciones correctivas que pueden realizarse en la postproducción
fonográfica, ¿por qué no es controversial en la misma medida y alcance que el
uso del autotune,
por ejemplo, el uso de compresores para corregir supuestas imperfecciones en el
rango dinámico, el uso del de-esser[86]
para controlar la sibilancia, o el uso de ecualizadores para modificar
radicalmente el contenido espectral de una voz grabada? ¿Qué sucede entonces
con el overdubbing
para componer frankesteins[87]
en la etapa de edición? En este sentido, pensamos que la persistencia de controversias
de este tipo son deudoras de una concepción que podríamos calificar como
ingenua en relación con los alcances que las prácticas específicas de la
fonografía tienen en la creación musical, particularmente en estilos como el trap. Una ingenuidad tal que, por ignorancia u omisión
deliberada, elude el abordaje de la dimensión fonográfica relegándola a una
cuestión o instancia supuestamente externa a la música. En efecto, consideramos
que muchas de las expresiones que practican la reductio ad absurdum del uso del autotune son
consecuencia de transposiciones apresuradas de características y/o rasgos
normativos de otros estilos musicales en los que el uso del autotune (entre otras tecnologías involucradas en la producción
fonográfica) puede ser connotado negativamente, al entenderse como trampa o
engaño que, supuestamente, enmascara una limitación o imposibilidad
performática. Cabría la posibilidad, entonces, de pensar en engaños lícitos[88] y
engaños ilícitos.
Resulta ilustrativo a los fines de este
artículo recuperar la voz del cantante argentino de trap
Ca7riel, quien se refiere al autotune y al modo
de utilización que Duki hace de éste, destacando la
interacción virtuosa que se produce entre ambos:
El Auto-Tune
otorga, da posibilidades. Si no sabés cantar, hacer
tu primer acercamiento a una base con Auto-Tune te puede cambiar la vida. No se
puede creer. Te da un poder que no tenías, porque cantar es poder. Y a una
persona que tiene ritmo y creatividad, como Duki, le ponés Auto-Tune y ya está, vuela. Duki
es un genio del Auto-Tune, es muy inteligente.
Finalmente, del mismo modo que Simon Frith recuerda en relación con el uso del micrófono
por parte de Frank Sinatra que “tampoco era cuestión para el cantante de
agarrar el micrófono y abrir la boca”,[89]
podemos afirmar que el autotune
no crea cantantes, sino que, en articulación con decisiones artístico-creativas
y correctivas vehiculizadas a partir de procesadores y tecnologías específicas,
participa del diseño de vocalidades singulares.
Arias Salvado, Marina. “Rasgos estilísticos del reggaetón
mainstream, una aproximación desde la producción musical” Etno. Cuadernos de Etnomusicología 15, nro.
2 (2020): 130-165. Disponible en https://bit.ly/3fd1Jyv. Último
acceso: 20/01/2022
Auner, Joseph. “‘Sing
It for Me’: Posthuman Ventriloquism in Recent Popular Music”. Journal of the Royal Musical Association
128, nro. 1 (2003): 98-122.
Basso, Gustavo. Percepción auditiva. Bernal: Universidad Nacional
de Quilmes, 2006.
Besora,
Max y Borja Bagunyà. Trapologia. Barcelona: Ara
libres, 2018.
Brøvig-Hanssen,
Ragnhild y Anne Danielsen. Digital
signatures. The impact of digitization on popular music sound. Cambridge y Londres: MIT Press, 2016.
Clendenning, Jane. “Electronically Modified
Voices as Expressing the (Post)Human condition in Daft Punk’s Random Access Memories (2013)”, en The Routledge
companion to popular music analysis, ed. Ciro Scotto, Kenneth Smith y John Backett. Londres: Routledge, 2019.
Díaz-Pinto, Ana María Macarena Robledo-Thompson. “‘Voy
conociendo mi voz, me voy encontrando en mi flow’:
performance vocal y musical en el reggaetón y trap
latino a través del caso de Bryant Myers”. Contrapulso: revista latinoamericana de estudios en música popular 3, nro. 2, (2021): 39-56. Disponible en: https://doi.org/10.53689/cp.v3i2,123. Último
acceso: 25/01/2022.
Doallo, Darío. “Omar
Varela, el productor estrella del trap local, antes
del Lollapalooza 2019: “Siempre hago locuras con la
música”. Clarín, Buenos Aires (26 de marzo de 2019). Disponible en: https://www.clarin.com/espectaculos/musica/omar-varela-productor-estrella-trap-local-lollapalooza-2019-siempre-hago-locuras-musica_0_TlfTyQwu1.html? . Último
acceso: 26/01/2022.
Eckard, Greg.
"Cómo un ingeniero petroquímico creó auto-tune y
cambió la música para siempre. Una entrevista con el revolucionario inventor
Andy Hildebrand", 2016. Disponible en https://www.vice.com/es/article/bmaj4d/soundcollective-como-un-ingeniero-petroquimico-creo-auto-tune-y-cambio-la-musica-para-siempre Último acceso: 04/01/2022.
Fernández, José Luis. Postbroadcasting. Innovación en la industria musical.
Buenos Aires: La crujía, 2014.
Frith, Simon. Ritos de la interpretación: sobre el valor
de la música popular. Buenos Aires: Paidós,
2014.
Frith, Simon y Simon Zagorski-Thomas.
The Art of Record Production. An
Introductory Reader for a New Academic Field. Farnham: Ashgate, 2012.
Gallo, Guadalupe y Pablo Semán. Gestionar, mezclar, habitar. Claves en los emprendimientos
musicales contemporáneos. Buenos
Aires: Editorial Gorla, 2016.
Johansson, Ola. Songs from Sweden. Shaping Pop Culture in a Globalized Music
Industry. Singapur: Palgrave Pivot, 2020.
Katz, Mark. Capturing
sound: how technology has changed music. Los Angeles: University of
California Press, 2010.
Kelly, Caleb. Cracked media: the sound of malfunction. Cambridge: MIT Press,
2009.
Lacasse, Serge. “Persona, emotions and
technology: The phonographic staging of the popular music voice”, CHARM
symposium 2: The art of record
production, 2005. Disponible en :
https://charm.cch.kcl.ac.uk/redist/pdf/s2Lacasse.pdf. Último
acceso: 06/02/2022
Lahiteau, Luciano. Los desafinados también tienen corazón: una
historia del Auto-Tune. Ciudad de La Plata: Firpo Casa Editora, 2021.
Moore, Allan F. Song means: analysing
and interpreting recorded
popular songs. London: Ashgate
publishing, 2012.
Moorefield, Virgil. The producer
as composer. Shaping the Sounds of Popular Music. Massachusetts: MIT Press,
2010.
Milner, Greg. Perfecting sound forever: an aural history of recorded music. Londres: Granta Books, 2010.
Noor, Lobad.
“Auto-Tune In Hip-Hop: A Brief History From T-Pain To Future” en HNHH (Hot New Hip-Hop), 2020. Disponible en: https://www.hotnewhiphop.com/auto-tune-in-hip-hop-a-brief-history-from-t-pain-to-future-news.122367.html. Último acceso: 06/01/2022
Osorio Fernández, Javier.
“Conexiones posthumanas: animalidad, tecnología y
otras vocalidades”. Resonancias, vol. 25,
nro.49, (2021): 171-175. Disponible en: http://resonancias.uc.cl/es/N%C2%BA-49/conexiones-posthumanas-animalidad-tecnologia-y-otras-vocalidades.html#_ftn4. Último acceso: 05/01/2022
Tagg,
Philip. Music's meanings: a modern
musicology for non-musos.
Huddersfield: The Mass Media Music Scholars Press Inc, 2013.
Sterne, Jonathan. The Audible
Past: Cultural Origins of Sound Reproduction. Durham, NC: Duke University Press, 2003.
——— . MP3: the meaning of a format.
Durham, NC: Duke University Press, 2012.
Van Dijck, José. La cultura de la conectividad: una historia
crítica de las redes sociales. Buenos Aires: Siglo XXI editores, 2016.
Zagorski-Thomas, Simon. The Musicology of Record Production. Cambridge: Cambridge
University Press, 2014.
Zukerfeld, Mariano. Obreros de los bits: conocimiento, trabajo y tecnologías digitales.
Bernal: Universidad Nacional de Quilmes Editorial, 2013.
Discografía
Duki: “Goteo” en Super
Sangre Joven, Buenos Aires, SSJ Records - DALE
PLAY Records, 2018. Disponible en: https://open.spotify.com/track/1EoEU4HY57qaITp06TkC6B?si=8afb12bb64364455
Duki (2019): “Goteo” en Paredon live session,
Buenos Aires, SSJ Records - DALE PLAY Records. Disponible en: https://open.spotify.com/track/5ZCZJDUmLeIYwv8yPZUge9?si=92fd299077804b31
Referencias multimediales
Altozano, Jaime. (2019) “La INCREÍBLE Historia del
AUTOTUNE”. Disponible en https://www.youtube.com/watch?v=a_H1nQkGUrE. Último
acceso: 03/01/2022
——— (2019), “La Verdad sobre la Música POP”.
Disponible en https://www.youtube.com/watch?v=ySa67e0jKNA. Último acceso:
03/01/2022
[1] La versión de este artículo que aquí publicamos fue elaborada a partir del trabajo final presentado en el marco del seminario de posgrado "Metodologías de la investigación en músicas populares", a cargo del Dr. Enrique Cámara de Landa y dictado en 2021 en el marco del Doctorado en Humanidades con mención en Música de la Facultad de Humanidades y Ciencias (Universidad Nacional del Litoral - Argentina). Mi agradecimiento a quienes han acompañado la búsqueda y las reflexiones de las que este trabajo es deudor: Enrique Cámara de Landa, Lisa Di Cione, Ana Lucía Frega, Sebastián Muñoz, Joaquín Melero, Julieta Soberón, Agustín Perié, Marcela Perrone, Alejandro Reyna, Natalia Solomonoff, Pablo Lang, Alejandro Brianza, Andrea García.
[2] Luciano Lahiteau, Los desafinados también tienen corazón: una historia del Auto-Tune (Ciudad de La Plata: Firpo Casa Editora, 2021), 10.
[3] “In no aspect of our lives has the penetration of the human by machines been more complete than in music. Every stage of production, distribution and consumption in the musical life of the industrialized world has been so permeated by technology that we no longer even recognize complex devices such as a piano as technological artefacts …”, en Joseph Auner, “‘Sing It for Me’: Posthuman Ventriloquism in Recent Popular Music”. Journal of the Royal Musical Association 128 (1) (2003): 98-122: 10. Todas las traducciones son nuestras.
[4] Lahiteau, Los desafinados también tienen
corazón, 9.
[5] Simon Fritth y Simon Zagorsky-Thomas. The Art of Record
Production. An Introductory Reader for a New Academic Field (Farnham:
Ashgate, 2012, 10).
[6] Lacasse, Serge. “Persona, emotions and technology: The phonographic staging of the popular music voice”, CHARM symposium 2: The art of record production, 2005. Disponible en : https://charm.cch.kcl.ac.uk/redist/pdf/s2Lacasse.pdf. Último acceso: 06/02/2022.
[7] Díaz-Pinto,
Ana María Macarena Robledo-Thompson. “‘Voy conociendo mi voz, me voy
encontrando en mi flow’: performance vocal y musical en el reggaetón y trap
latino a través del caso de Bryant Myers”. Contrapulso:
revista latinoamericana de estudios en música popular 3, nro. 2, (2021): 39-56. Disponible en:
https://doi.org/10.53689/cp.v3i2,123. Último acceso: 25/01/2022.
[8] Moorefield, Virgil. The producer as composer. Shaping the Sounds of Popular Music. Massachusetts: MIT Press, 2010.
[9] Frith,
Simon. Ritos de la interpretación: sobre el valor de la música popular. Buenos Aires: Paidós, 2014, 331.
[10] Clendenning, Jane. “Electronically
Modified Voices as Expressing the (Post)Human condition in Daft Punk’s Random
Access Memories (2013)”, en The Routledge
companion to popular music analysis, ed. Ciro Scotto, Kenneth Smith y John
Backett. Londres: Routledge, 2019.
[11] “The
voice is mankind’s primary musical instrument”, en Philip Tagg. Music's meanings: a modern musicology for non-musos (Huddersfield:
The Mass Media Music Scholars Press Inc.: 2013, 343).
[12] “More
than just a vehicle for the lyrics, voice acts, through the partial exposition
of the singer’s body, as the aural index of the artist’s persona and
represented emotions. Song characters, then, live through the singer’s voices which are phonographically
staged with the help of recording techniques.” en Serge Lacasse. “Persona,
emotions and technology: The phonographic staging of the popular music voice”,
CHARM symposium 2: The art of record production. Recuperado de: https://charm.cch.kcl.ac.uk/redist/pdf/s2Lacasse.pdf
[13]
“If you’re listening to a song on a station that plays new or fairly recent
rock, pop, or R&B, it will likely sound even weirder because there is a
very strong chance that the vocals were processed during the recording or
mixing process with Auto-Tune, a software program that automatically corrects a
singer’s pitch, which can create a very inhuman droning effect. All this time,
you’ve been listening to distinctly inhuman voices and thinking of them as
human.” en Greg Milner. Perfecting sound
forever: an aural history of recorded music (Londres: Granta Books, 2010,
31).
[14] La elección de esta palabra encuentra
su origen en poder hacer referencia a procesadores digitales de corrección
automática y en tiempo real de afinación independientemente de su marca
comercial. Lo utilizaremos en minúscula y en cursiva para diferenciarlo de
Auto-Tune, marca comercial registrada por la empresa Antares AudioTechnology.
[15] No obstante, nos valdremos del
fonograma original para realizar comparaciones cuando esto sea necesario y
pertinente.
[16] “El Paredón es un contenido
audiovisual dedicado a la difusión musical que busca mostrar el lado más íntimo
y personal de los artistas y acercarlos al público. Al combinar cuatro
elementos (artista, público, banda en vivo y paredón) el proyecto se vuelve una
experiencia única y muestra cómo las figuras de Trap, junto a una banda en vivo
formada por prestigiosos músicos, salen de su zona de confort para reversionar
sus propios hits y convertirlos en nuevos tracks.” Disponible en: https://www.clarin.com/espectaculos/musica/duki-reversiono-goteo-banda-vivo-revoluciono-redes-sociales_0_zdUeXiOi.html. Último acceso: 27/01/2022.
[17] Fonograma en vivo utilizado para este
trabajo (Spotify): https://open.spotify.com/track/5ZCZJDUmLeIYwv8yPZUge9?si=92fd299077804b31
[18] Moore, Allan F. Song means: analysing and interpreting recorded popular songs. London: Ashgate publishing, 2012.
[19] Mariano Bilinkis (Ciudad de Buenos Aires, 1981)
es ingeniero de sonido y productor musical. Ha trabajado en más de un centenar de producciones
discográficas de diferentes estilos musicales (La Mississippi, Las Pelotas,
Diego Frenkel, Catupecu Machu, entre otros). Dentro del trap y la música
popular urbana argentina, ha trabajado con artistas como Tini, Nicki Nicole,
Duki, Khea, YSY A, entre otros. Para una biografía y portfolio completo del
artista, sugerimos consultar su página web oficial: http://www.marianobilinkis.com.
[20] Ramiro Molina (Rosario, 1992) es guitarrista y productor musical. Trabaja principalmente como músico sesionista. En la música popular urbana argentina, ha tocado con Duki, Nicki Nicole y Neo Pistea, entre otros. Actualmente es el director musical del artista argentino LIT Killah.
[21] Acrónimo del inglés Digital Signal Processing, en español procesamiento digital de señal. Bajo DSP se agrupan todos los softwares y aplicaciones que permiten realizar procesamiento de audio, imagen y video en entornos digitales, tanto en tiempo real como en tiempo diferido.
[22] Una
explicación pormenorizada del modelo matemático utilizado, realizada por el
propio Hildebrand, puede encontrarse aquí: https://www.pbs.org/wgbh/nova/article/hildebrand-auto-tune/
.
[23] Por semi automático nos referimos a que el software procesará la señal que reciba a partir de la configuración previa de sus parámetros que realice el usuario. La primera versión comercial del Auto-Tune contó con un modo llamado Automatic mode, en el cual el procesamiento es realizado por el plugin de manera automática y en tiempo real a partir de la configuración parametral realizada por el usuario. Aparte de este modo, el software contó con otro llamado Graphical mode, el cual habilitaba la realización de diversos procesamientos de sonido dentro del plug-in, aunque de manera manual y en tiempo diferido (similar a una edición de audio no destructiva).
[24] Cf. Altozano,
Jaime. (2019) “La INCREÍBLE Historia del AUTOTUNE”, https://www.youtube.com/watch?v=a_H1nQkGUrE .
[25] Software programado para funcionar como subsidiario o slave de otro software. En este caso, la utilización del Auto-Tune como plug-in depende de la ejecución previa de una DAW (Digital Audio Workstation, o estación de trabajo de audio digital) y de la articulación entre plug-in y DAW mediante un protocolo de comunicación específico.
[26] Acrónimo del inglés Digital Audio Workstation, estación de trabajo de audio digital. Con ellos, y los dispositivos de hardware que lo permiten (placa de sonido, micrófono, entre otros), es posible grabar y procesar los sonidos grabados desde una computadora. La mayoría de ellos son multipista, lo que significa que pueden trabajar con el registro, edición y procesamiento de varias pistas de audio en tiempo real y en forma simultánea. Algunas de los nombres comerciales de las DAW's más populares y con mayor comercialización son ProTools (Avid, originalmente DigiDesign; fue el primer software de estas características, publicado en 1991), Logic (Apple), Cubase (Steinberg), Nuendo (Steinberg), Reaper (Cockos) y StudioOne (PreSonus), entre otros. Según Luciano Lahiteau, con las DAW's "se abrió un nuevo panorama, que permitió no solo trabajar más rápido y con más pistas, sino que permitió trabajar 'directamente' sobre el sonido, abreviando las generaciones del método analógico … y su consecuente margen de error y especulación" (Lahiteau, Op.Cit., 82).
[27] Voice Encoder, conocido comercialmente y
popularizado como Vocoder, fue un procesamiento sonoro aplicado a las voces
cantadas prolíficamente
utilizado durante la década del '70. Considerado como un efecto, el resultado
del procesamiento en tiempo real de una voz cantada con Vocoder produce una
versión sintética o sintetizada de la voz. Aunque fue originalmente concebido
en un entorno analógico, su funcionamiento se asemeja en gran medida al del autotune, al ser un procesamiento cuyo
propósito es intervenir en tiempo real y de manera semi automática una voz
grabada. Para ampliar sobre el funcionamiento del Vocoder, sugerimos consultar
Brøvig-Hanssen y Danielsen, 2016: 118, y
https://splice.com/blog/how-vocoder
works/?utm_source=google&utm_medium=cpc&utm_campaign=Google_Search_Acquisition_Sounds_Nonbrand_DSA_ROW&utm_content=sounds&utm_term=&campaignid=13577111017&adgroupid=123041963239&adid=528665014304&gclid=Cj0KCQiA2sqOBhCGARIsAPuPK0iZ-xuGcL2jxiMNIWOV24UN--v-CXygxgku6p6B0UFWb1tLTx93wOAaAif5EALw_wcB . Último acceso: 25/01/2022.
[28] Lahiteau, Op.Cit., 99.
[29] "The real impact of Auto-Tune is that it changed how studios produce vocals”. En https://www.pbs.org/wgbh/nova/article/hildebrand-auto-tune/. Último acceso: 25/01/2022.
[30] Warner Bros. y Wea, 1998. La canción alcanzó el número 1 en
el ranking Billboard (marzo de 1999) y ganó un premio Grammy a la Mejor
grabación Dance del año.
[31] cf. Sillitoe, Sue. (1998) "Recoding Cher's Believe", en Sound on Sound, febrero 1999. Disponible en: https://www.soundonsound.com/techniques/recording-cher-believe . Último acceso: 25/01/2022.
[32] cf. "Cher resurrected again by a hit the long
hard-but-serendipitous road to believe" en New York Times, marzo 1999. Disponible en: https://www.nytimes.com/1999/03/11/arts/cher-resurrected-again-by-a-hit-the-long-hard-but-serendipitous-road-to-believe.html?pagewanted=all. Último acceso: 25/01/2022.
[33] Eckard, Greg. (2016) "Cómo un
ingeniero petroquímico creó auto-tune y cambió la música para siempre. Una
entrevista con el revolucionario inventor Andy Hildebrand." en https://www.vice.com/es/article/bmaj4d/soundcollective-como-un-ingeniero-petroquimico-creo-auto-tune-y-cambio-la-musica-para-siempre . Último acceso: 25/01/2022.
[34] Lahiteau, Op.Cit., 47.
[35] Traducción
nuestra de la expresión digital melisma,
formulada por Ragnhild Brøvig-Hanssen & Anne Danielsen, Digital signatures: the impact of
digitazation on popular music sound (Massachusetts, MIT Press, 2016).
[36]En la versión plug-in
del software, el punto máximo (fast) configura al software para modificar el tiempo de modificación de la afinación
en 0 (cero) milisegundos.
[37] Es importante aclarar que a pesar de percibir la modificación de la afinación como instantánea e inmediata, la configuración de cero milisegundos es, en la práctica y en términos objetivos, imposible, ya que por más capacidad y velocidad de proceso de que se disponga, el ordenador que soporta los softwares y plug-ins siempre requiere de un tiempo, por más inaudible que este resulte, para realizar las operaciones de procesamiento que se le solicitan.
[38] En el presente trabajo utilizaremos hard tuning para referirnos a esta configuración y resultante sonora. Motiva la decisión el hecho de que, como se verá más adelante, con softwares diferentes al Auto-Tune, aunque concebidos con la misma finalidad (Celemony Melodyne y Waves Tune, por ejemplo) se puede lograr una resultante sonora similar sin necesariamente llevar a cero milisegundos el retune speed, decisión y operación implicada en la expresión zero setting.
[39] “It was T-Pain’s pivotal use of
the technology as a stylistic tool, rather than a mere aid to sharpen up flawed
vocals, that pushed the vocal
effect further into the mainstream and prompted others to experiment with it,
as well” en Noor, Lobad. (2020). “Auto-Tune In Hip-Hop: A Brief History From
T-Pain To Future” en HNHH (Hot New Hip-Hop). Disponible en: https://www.hotnewhiphop.com/auto-tune-in-hip-hop-a-brief-history-from-t-pain-to-future-news.122367.html . Último acceso: 06/01/2022.
[40] Brøvig-Hanssen & Danielsen, Op.Cit., 2016.
[41] Cf.
Basso, 2006; Milner, 2010; Sterne 2003 y 2012.
[42] Lahiteau, Op.Cit., 30-31.
[43]
Cf. www.livemeanslive.com
[44] Podemos recuperar, en este sentido, la
declaración del ingeniero y productor musical argentino Mario Breuer al
respecto: “Si le tenés que poner un software
desde que empieza hasta que termina la canción, ese cantante debería
preguntarse si debiera ser cantante”. Cf. Lahiteau, Op. Cit., 101.
[45] La cuestión de
la autenticidad es un tema abordado recurrentemente en los estudios de músicas
populares. Entre otras bibliografías, sugerimos consultar Simon Frith. Ritos de la interpretación. Sobre el valor
de la música popular. (Buenos Aires:
Paidós, 2014, 395 y ss. "Tecnología y autoridad"), Allan F. Moore. Song means: analysing and interpreting recorded
popular songs. (Farnham:
Ashgate, 2012, 259 y ss., "Chapter 9: Belonging").
[46] Ana Díaz-Pinto y Macarena Robledo-Thompson. “‘Voy conociendo mi voz, me voy encontrando en mi flow’: performance vocal y musical en el reggaetón y trap latino a través del caso de Bryant Myers” en Contrapulso: revista latinoamericana de estudios en música popular, Vol.3, n nro. 2, (2021): 39-56. Disponible en: https://doi.org/10.53689/cp.v3i2,123. Último acceso: 03/10/2022.
[47] Besora, Max y Borja Bagunyà. Trapología. Barcelona: Ara libres, 2018.
[48] Improvisación vocal del cantante sobre base o pista compuesta previamente por el productor o en simultáneo con el cantante.
[49] Díaz-Pinto, Ana María Macarena Robledo-Thompson. “‘Voy conociendo mi voz, me voy encontrando en mi flow’: performance vocal y musical en el reggaetón y trap latino a través del caso de Bryant Myers”. Contrapulso: revista latinoamericana de estudios en música popular 3, nro. 2, (2021): 39-56. Disponible en: https://doi.org/10.53689/cp.v3i2,123. Último acceso: 25/01/2022.
[50] Pulsos Por Minuto. Traducción al español de la expresión anglosajona BPM, o Beats Per Minute.
[51] Una traducción lineal podría ser creador de ritmos, aunque esto es insuficiente, ya que el rol de productor muchas veces excede el de la programación de una base rítmica, pudiendo alcanzar también otras dimensiones de la producción fonográfica.
[52] En este estilo, la computadora se convierte en un instrumento que, desdoblándose también en plataforma, permite desplegar y utilizar otros instrumentos a partir de ella. Agradezco a Sebastián Muñoz haberme acercado esta expresión.
[53] Guadalupe Gallo y Pablo Semán. Gestionar, mezclar, habitar. Claves en los emprendimientos musicales contemporáneos. Buenos Aires: Editorial Gorla, 2016, 27.
[54] Expresión que refiere a producciones fonográficas realizadas íntegramente en computadoras, o entornos únicamente digitales. Generalmente, suele circunscribirse al uso de una DAW, plug-ins, instrumentos virtuales y procesamientos únicamente digitales.
[55] Entrevista otorgada al autor, marzo de 2021.
[56] Mariano Zukerfeld. Obreros de los bits: conocimiento, trabajo y tecnologías digitales. Bernal: Universidad Nacional de Quilmes Editorial, 2013, 159.
[57] Del inglés, User Generated Content. Cf. José Van Dick, La cultura de la conectivdad: una historia crítica de las redes sociales. Buenos Aires: Siglo XXI editores, 2016.
[58] Zukerfeld, Ibidem.
[59] Gallo & Semán, Op.Cit., 15.
[60] La tragedia de Cromañón fue el incendio del local bailable homónimo emplazado en la Ciudad de Buenos Aires. Producto de un incendio en su interior fallecieron 194 personas.
[61] Zukerfeld, Op.Cit., 180.
[62] “Premios Gardel 2018: Charly es de Oro
por tercera vez”. Disponible en: https://www.clarin.com/espectaculos/musica/premios-gardel-2018-charly-garcia-oro-tercera-vez_0_HyGmRPi1m.html. Último acceso:
12/02/2021.
[63] Lacasse, Op. Cit, 1,
“phonographic staging:
is a kind of acousmatic scenography, effects such as reverb, echo, filtering or
overdubbing act as mediators of recorded sound sources".
[64] “ … the original meaning of the
Latin word persona is ‘a mask…as warn by actors in Greek and Roman drama’. Its
transferred meanings of performed role, personality, etc. derive from the fact
that revealing the true nature of a dramatic character involved projecting the
voice of that individual through the mask worn by the actor playing that role.
His or her voice had literally to sound (sonare) through (per) the mask - vox
personans - out into the auditorium, into the audience’s ears and brains” en
Philip Tagg. Music's meanings: a modern
musicology for non-musos. Huddersfield: The Mass Media Music Scholars Press
Inc, 2013, 351.
[65] Javier Osorio Fernández, Conexiones posthumanas: animalidad, tecnología
y otras vocalidades” en Resonancias,
25, nro. 49, julio-noviembre 2021, 171-175. Disponible en: http://resonancias.uc.cl/es/N%C2%BA-49/conexiones-posthumanas-animalidad-tecnologia-y-otras-vocalidades.html#_ftn4 Último acceso: 05/01/2022.
[66] Osorio Fernández, Ibidem.
[67] Recuperado
de https://www.clarin.com/espectaculos/musica/duki-reversiono-goteo-banda-vivo-revoluciono-redes-sociales_0_zdUeXiOi.html
[68] Para no redundar en repeticiones que
ampliarían innecesariamente nuestro trabajo, transcribimos una sola vez la
letra correspondiente al estribillo. Para ver la cantidad de veces y el orden
de aparición de esta parte en la canción, referirse a la Tabla 1.
[69] Marina Arias Salvado. “Rasgos estilísticos
del reggaetón mainstream, una aproximación desde la producción musical”, en Etno. Cuadernos de Etnomusicología,
15/2, 2020. Disponible en: https://bit.ly/3fd1Jyv . Último acceso: 20/01/2022.
[70] V = Verso, E = Estribillo. La numeración que acompaña a cada legra (V1, E1, por ejemplo), se corresponden con el orden de aparación de cada sección conforme discurre el fonograma.
[71] Música y/o sonidos generados y/o procesados mediante el microchip de una consola de videojuegos. Se asocian habitualmente al chiptune las músicas y sonidos de las videoconsolas cuya resolución para reproducir sonido era de 8 bits (por ejemplo, las consolas Atari y Family game, popularizadas a finales de los años ochenta y principios de los noventa).
[72] Música
y/o sonidos generados y/o procesados mediante el microchip de una consola de
videojuegos. Se asocian habitualmente
al chiptune las músicas y sonidos de
las videoconsolas cuya resolución para reproducir sonido era de 8 bits (por
ejemplo, las consolas Atari y Family game, popularizadas a finales de
los años ochenta y principios de los noventa) en detalle para describir
cuestiones relacionadas al proceso de creación y producción de dicho fonograma.
[73] Para más detalles sobre el fonograma
en vivo, sugerimos consultar la siguiente hemerografía disponible en línea: https://fleek.25gramos.com/duki-goteo-live-session/ ; https://billboard.com.ar/por-primera-vez-duki-reversiono-goteo-con-bases-en-vivo-mira/; https://www.clarin.com/espectaculos/musica/duki-reversiono-goteo-banda-vivo-revoluciono-redes-sociales_0_zdUeXiOi.html Último acceso: 25/01/2022.
[74] Productor musical: Mauro De Tommaso;
Músicos: Director/Bajo: Juan Gimenez Kuj, Guitarra: Ramiro Molina, Batería:
Francisco Alduncin, Teclados: Martín Aguilar. Violonchelo: Nicolás Muñoz,
Violín: Valter Schiavone, Flauta Traversa: Nataly Michelle, Arreglo de cuerdas:
Mateo Rodo, Jefe técnico: Federico Páez, Mix Master: Mariano Bilinkis,
Asistentes: Alfredo Sarmiento Pinzón y Tomás Martinez. Créditos tomados del
canal de YouTube oficial de El Paredón
session: https://www.youtube.com/watch?v=IT3Axzu_uLw Último acceso: 30/01/2022
[75] Entrevista personal con el autor, miércoles 18 de enero de 2022.
[76] Ibidem.
[77]
Ibidem.
[78] Molina, idem.
[79] Ibidem.
[80] Está compuesto por tune (en este caso, abreviación de autotune, no de canción o tema, en inglés) y por doctor, haciendo referencia a la persona que oficia de asistente personalizado y altamente especializado que suelen tener los intérpretes de batería, guitarra eléctrica y bajo eléctrico (en inglés, drum doctor, guitar doctor y bass doctor, respectivamente), en estilos musicales tales como el rock o el pop.
[81] El ingeniero destaca particularmente el uso de compresión paralela y ecualización aditiva en el bajo eléctrico, en el kick - bombo de la batería - y el tambor. Mariano Bilinkis, Entrevista otorgada al autor, noviembre 2021.
[82] Entrevista otorgada al autor, noviembre de 2021.
[83] Disponible
en: https://www.thoughtco.com/who-invented-auto-tune-1991230. Último acceso: 27/01/2022.
[84] Doallo, Darío. “Omar Varela, el
productor estrella del trap local, antes del Lollapalooza 2019: “Siempre hago
locuras con la música” Clarín, 26/03/2019. Disponible en: https://www.clarin.com/espectaculos/musica/omar-varela-productor-estrella-trap-local-lollapalooza-2019-siempre-hago-locuras-musica_0_TlfTyQwu1.html? . Último acceso: 26/03/2022.
[85] Entrevista otorgada al autor, marzo de 2022.
[86] Procesamiento que reduce dinámicamente el contenido espectral de una voz en el rango de frecuencias entre los 3000 y 8000 Hz. Se caracteriza por tener un ancho de banda angosto, y ser generalmente de filtros de tipo notch (cancelación de banda).
[87] Expresión utilizada comúnmente por los
profesionales del audio para referirse a la creación de la toma final de un
fragmento grabando, editando y compaginando los mejores trozos de varias tomas
del mismo fragmento.
[88] Agradezco a Marcela Perrone por haberme compartido esta expresión.
[89] Simon Frith. Ritos de la interpretación: sobre el valor de la música popular. (Buenos Aires: Paidós, 2014, 384).