PDA

Ir a la versión completa : Delay en moitores



Arturo Regalado
24 may 2009, 23:27
Hola a todos. Esta semana termine un curso acerca de diseño de sistemas de refuerzo sonoro, por cuestiones de tiempo no pudimos cubrir el tema de retrasos en los monitores. Estuve leyendo en el foro y no encontré un post que me quitara verdaderamente la duda. Con el curso aprendí a retrasar el sistema principal contra el backline, así como con los subs y demás pero nada de monitores. Quisiera que me ayudaran con esto de favor.

Los retrasos se hacen digamos del drum fill tomando como referencia tiempo 0 y de ahi retrasando el side fill si esta separado un metro un delay de 3 ms (aprox) y el front fill a 2 metros un delay de 5.83 ms (aprox)?
Es cierto que ayuda e minimizar la probabilidad de feedback?
Gracias de antemano a todos por su ayuda

Ricardo (kaito) Barragán
25 may 2009, 01:54
Hola a todos. Esta semana termine un curso acerca de diseño de sistemas de refuerzo sonoro, por cuestiones de tiempo no pudimos cubrir el tema de retrasos en los monitores.
Hola Arturo.
Si terminaste dicho curso en Meyer, seguramente te han entrgado el libro de Bob McCarthy impreso y en español.
En dicho libro hace mencion al tema de retraso de monitores en la pagina 170.
El siguiente parrafo es copiado del libro de McCarthy:

"La señal que pasa a traves de un monitor de escenario es una
mezcla de señal directa y regenerativa. Por "directa" nos
referimos a cuando el monitor reproduce una señal que no ha
sido regenerada, como la señal directa de un sintetizador o de
un bajo. Por "regenerada" nos referimos a por ejemplo, un
vocalista cantando en un microfono que es enviado de nuevo
(retardado, por supuesto) al microfono por el monitor de
escenario. Esta suma d energia directa y retardada tiene todos
los aspectos del combfiltering discutidos anteriormente.
Ademas tenemos que considerar que la energia se sumara en
el microfono, lo cual tendra un efecto dramatico sobre la
calidad de la señal tanto en el monitoreo como en la sala. El
combfiltering de la voz regenerada puede ser reducido hasta
cierto punto mediante ecualizacion . Tambien se podria reducir
bajandole al monitor de escenario, "pero seamos practicos......"

No se si esto de copiar el parrafo de un libro esta permitido en el foro.
Si lo esta , le pido a Martin Almazan que me lo haga saber y asi poder completar lo que sigue.

Saludos........

Martín Almazán
25 may 2009, 02:04
No se si esto de copiar el parrafo de un libro esta permitido en el foro.
Si lo esta , le pido a Martin Almazan que me lo haga saber y asi poder completar lo que sigue.

Reproducir un párrafo de un libro citando su procedencia no es problema, pues no perjudica al autor (si acaso al contrario).

Ricardo (kaito) Barragán
25 may 2009, 02:33
Reproducir un párrafo de un libro citando su procedencia no es problema, pues no perjudica al autor (si acaso al contrario).

"Los factores dominantes en el desempeño de un sistema
de monitores de escenario son:
* La interaccion de la caja acustica y el microfono.
* La respuesta de la caja acustica.
* Condiciones de confinamiento de campo cercano.

La interaccion de la caja acustica y el microfono se puede
dividir en:
* Las caracteristicas direccionales del microfono y la caja
acustica
* La distancia entre la caja acustica y el microfono.
-------------------------------------------------------------------

El proceso de ecualizacion para los monitores de escenario
se deberia dividir idealmente en tres etapas:
* La ecualizacion del sistema de gabinetes mismo y del
ambiente acustico. Esto se hace generalmente con ecualizador
externo.
* La ecualizacion de las vias de señal regenerativa(microfonos
vocales). Esto se puede hacer mediante un ecualizador externo
o el de su canal
* La ecualizacion delas señales directas. Esto se puede hacer
con la ecualizacion del canal.
------------------------------------------------------------------
La razon para ello es que cuando se ecualiza el sistema para la
via regenerativa, donde es probable que se tomen medidas
drásticas, las señales directas que no necesitan la ecualización
sonarían mal.
Una solucion es doblar el numero de monitores de escenario y
separarlos en sistemas de musica y vocales. Esto tiene la
ventaja de permitir ecualizaciones separadas y ademas los
musicos pueden localizar mas facilmente su voz y los
instrumentos ya que vienen de diferentes posiciones. Este
efecto psicoacustico es similar a la forma en que somos capaces
de localizar a una persona hablando en una sala llena de gente,
al poner atencion en su posicion.
Otra opcion es dirgir el canal vocal atraves de un ecualizador
externo, compensando los efectos regenerativos ahi, y dejando
la caja acustica lineal. Entonces ambas señales, directa y
regenerativa sonaran naturales.
Algunos ingenieros aprenden a ser extremadamente
cuidadosos respecto a la posicion de los monitores de escenario
y los microfonos. Han aprendido que pequeños cambios en la
posicion pueden cambiar la respuesta de frecuencia dando
como resultado feedback. ¿Cual es el mecanismo?
La fig 3.8a muestra la relacion de un monitor de escenario
tipico y un microfono.Con el microfono a una altura de 1.5
metros resultara un combfiltering de una diferencia de tiempo
de 5.4 ms . Esta relacion define donde estaran los picos y valles,
y el rechazo del microfono y el nivel necesario para ensordecer
al musico determinaran la profundidad de las cancelaciones.
Si subimos el microfono para un musico mas alto esta vez la
diferencia de tiempo cambiara a 5.9 ms
Ahora veamos que pasa con un cambio de 0.5ms. La profunda
cancelacion en 1kHz es ahora un pico. El mismo efecto ocurrira
a 3, 5, 7....kHz. El efecto opuesto ocurrira a 2, 4, 6....kHz.
Naturalmente esto tiene el potencial de causar tremendos
problemas. Esto es para un cambio de 15 cm. Un cambio de 2.5
cm invertira la respuesta a 5, 10 y 15 kHz. Se puede ver porque
algunos ingenieros de monitores ponen tanta atencion a las
posiciones. Desafortunadamente, el que los musicos cambien
de lugar sus microfonos al subirse al escenario, es una ley
universal."


El parrafo escrito arriba y la figura, es una copia literal del libro de Bob McCarthy "Referencias de Diseño de Meyer Sound en español"

Saludos.....

Alejandro Campero
25 may 2009, 06:09
Como estas, Kaito ?. Que bueno leerte por aca.

Che, yo creo que la pregunta de Arturo se refiere a poner en "tiempo/fase" las distintas fuentes involucradas en el escenario con el fin de evitar el comb filter en las posiciones de los musicos.
Lo que vos pusiste esta bien, pero se refiere a las consecuencias que nos trae en el PA la retroalimentacion entre monitor y microfono (aun antes de manifestarse como un acople).

Arturo Regalado
25 may 2009, 10:01
Si Alejandro esa es mi pregunta , Kaito muchas gracias por tu explicación y la referencia.
Pero lo que quisiera saber es masonenos el proceso que se tiene que seguir para eso , eliminat el comb en monitores .

Ricardo (kaito) Barragán
25 may 2009, 10:22
Como estas, Kaito ?. Que bueno leerte por aca.

Che, yo creo que la pregunta de Arturo se refiere a poner en "tiempo/fase" las distintas fuentes involucradas en el escenario con el fin de evitar el comb filter en las posiciones de los musicos.
Lo que vos pusiste esta bien, pero se refiere a las consecuencias que nos trae en el PA la retroalimentacion entre monitor y microfono (aun antes de manifestarse como un acople).

Hola Ale.
Tenes razon, solo relacione lo que le hubieran dado en el curso de Meyer y se lo quise acercar,pero no le conteste su pregunta.
Te mando un abrazo.



Los retrasos se hacen digamos del drum fill tomando como referencia tiempo 0 y de ahi retrasando el side fill si esta separado un metro un delay de 3 ms (aprox) y el front fill a 2 metros un delay de 5.83 ms (aprox)?
Es cierto que ayuda e minimizar la probabilidad de feedback?
Gracias de antemano a todos por su ayuda

Hola Arturo.
Si a todas las fuentes de sonido que existen en un escenario las retrasamos con respecto a una de ellas , y esta practica la hacemos con algun software de medición, lo estaremos midiendo con un micrófono para tal fin. Efectivamente en la posicion donde se encuentra este micrófono habría sumatoria efectiva de todas las fuentes y esto beneficiaria a la amplificación en el sistema de sala porque no habría combfiltering y elevaría la ganancia antes del feedback.
Ahora esto sirve solo para "una" posicion en el espacio del escenario, osea para una posicion de microfono. Que pasa si tenemos dos o mas micrófonos esparcidos en el escenario; no sabríamos cual elegir para retrasar, que pasaría en en la posicion de los micrófonos no elegidos para el retraso !!comfiltering!!
Con las consolas digitales que tienen delay por cada canal de entrada podríamos retrasar cada posicion de micrófono a la misma posicion de mic donde se han retrasado las fuentes de sonido. Que a nadie se le ocurra reposicionar un solo mic porque lo matamos jajaja.
Esta practica seria una locura , demasiado para nuestro trabajo y muy difícil de implementar.
Por eso en un escenario se convive todo el tiempo con los filtros peine, ya sea de dos monitores hacia un micrófono, dos micrófonos hacia un mismo instrumento y por ejemplo vean en cuantos puntos del escenario no existe filtro peine con un Side Fill ?
La practica que yo hago con un software de medicion en set de monitores es revisar en las distintas posiciones de mezcla como se comporta en frecuencia y fase el/los monitores, luego drumfill, sidefill etc...despues coloco el mic de medicion en un par de posiciones en el centro del escenario y hago sonar todos los monitores al mismo tiempo para darme cuenta si en este lugar (ambiente) existe alguna frecuencia modal que es común para todas las posiciones. Si logramos sacar esa frecuencia que resuena de mas en el escenario, estaremos ademas logrando que no se meta por los microfonos de los instrumentos y la amplifique el P.A., con la importancia que eso implica.

Pero la practica que siempre me conduce a buen destino en monitores es igualar el nivel de salida de todos los monitores, especialmente cuando te encontras con gabinetes de diferente marca y modelo. Muchas veces uno arranca el seteo de monitores con un micrófono vocal en mano y hace sonar cada mezcla con su voz y te das cuenta que en las mezclas de monitores de piso tuviste que subir el potenciómetro por ej. a la mitad del recorrido para que este óptimo el nivel de tu voz, pero en el sidefill para que llegue a estar óptimo en la posicion requerida, el potenciómetro lo tuve que poner en una cuarta parte de su recorrido, asimismo par el drumfill hay que mover tres cuartas partes del recorrido del potenciómetro para que tu voz suene en un nivel óptimo e igualado con todos los demas gabinetes. Por eso ,"en mi opinión," es una buena practica que " para ser consistentes en diferentes mezclas" que el mismo nivel de potenciómetro de auxiliar en consola coincida el resultado de nivel acústico en todas las posiciones de mezcla.

Saludos.........

Ricardo (kaito) Barragán
25 may 2009, 12:19
Un poco mas de McCarthy:

"Los arreglos de "sidefill" de monitores son el extremo en
arreglos de punto de destino. En este caso ambas cajas acústicas
se encuentran una frente a la otra. Al acercarnos a una caja nos
alejamos de la otra. Por lo tanto, los desajustes de tiempo
cambian tan rápidamente que para cuando alcanzamos una
posicion de 30cm (1 pie) fuera del centro, tenemos una
cancelacion en 275 Hz. Ya que nos encontramos en una
posicion sobre el eje de ambas cajas, no existira atenuacion
axial, dejando solo la baja perdida de propagacion para aislar
los sistemas. El resultado es un "ripple" severo a traves de la
mayoria del area de cobertura.
Esto no significa que los arreglos de sidefill de monitor deben
ser abolidos. La intencion es dar un poco de luz en lo referente
a lo que sucede cuando los usamos. En otras palabras, que no
nos sorprenda cuando la respuesta cambia en cada punto, y
pensemos, por eso, que hay algo que estamos haciendo mal.
Peor aun, dejemos a un lado "soluciones" descabelladas como
invertir la polaridad de una de las cajas acusticas.

Aqui hay una que funcionara: si el cantante se encuentra fuera
del centro, y el microfono no se movera, retarde el sidefil mas
cercano para que se encuetren sincronizadas en el microfono.
Suma maxima (+/-1 pie)"

SPL sobre el eje: Suma maxima al centro
Distribucion de nivel: Acumulacion grande en el area
central
Distribucion de respuesta de frecuencia: Cada
posicion tiene su respuesta de frecuencia propia. El
"ripple" de agudos es severo justo fuera del centro,
moviendose hacia abajo en frecuencia al movernos a
los lados.
Ecualizabilidad: La interaccion no es ecualizable. Debe
ser ecualizado solo como fuentes individuales.

Hasta aqui lo antes escrito es copia literal de Bob McCarthy.

No hay nada mas esclarecedor con respecto a experimentar audiblemente un filtro peine que alimentar con ruido rosa los sistemas de sidefill y caminar por su axis en un sentido y en el otro.
En la grafica que a continuacion repito de el post anterior muestra distintas diferencias de posicion (pies) con su respectiva correlacion con la diferencia de tiempo de llegada en el axis para esa posicion y con dicha diferencia de tiempo a que frecuencia le corresponderia el filtro peine.
En la tabla de abajo nos muestra que para cada posicion del axis le corresponde una diferencia de tiempo ; pero nos muestra la primer frecuencia que en el filtro peine tiene la mayor atenuacion (vease que la frecuencia es la mitad de valor de su correspondida) y cuanta atenuación tendría en esa posicion, lo cual es típico en los filtros peine.

Saludos.............

Arturo Regalado
25 may 2009, 12:49
Ahhh muchas gracias Ricardo queda todo entendido y ya mas claro, esto es en realidad apasionante y pues esperemos poder utilizarlo. Aunque me doy cuenta que la opcion es IEM jaja. Muchas gracias a todos por su ayuda.

Alejandro Campero
25 may 2009, 16:10
Yo no desestimaria la opcion de acomodar un poco en "tiempo/fase" la mezcla principal con el side-fill. De hecho varias veces lo hice y obtuve buenos resultados.

En una oportunidad lo hice para un señor mexicano que usaba 4 monitores USM-100P de piso al frente, 2 monitores USM-100P de piso desde atras, y side-fill de doble MSL-4 + 650P. Si bien estoy de acuerdo de que el tiempo solo funcionaba en el punto en el que ubique el microfono, te puedo asegurar que el nivel de presion que ese hombre sintio en el momento en el que llego a decir "hola, hola" en la prueba, nunca lo habia sentido en su vida. Hay cantantes, como este, que en realidad no se mueven mucho, y si se mueven saben a que se exponen, asi que cuando necesitan escucharse vuelven al lugar donde saben que deben ubicarse para oirse.

En caso de no tener en cuenta esta opcion no pasa nada, solo que entonces no vamos a tener ningun punto en tiempo en todo el escenario.

Esta todo bien con Bob McCarthy, de hecho todo el tiempo tengo presente que es gracias a el que llegamos a manejar esta data, pero esta bueno experimentar cada tanto. El problema que plantea con el side-fill tambien podria aplicarse al L-R, y sin embargo todos seguimos trabajando con un PA a cada lado del escenario sabiendo que si nos movemos tan solo en el espacio de la consola podemos percibir claramente los efectos del comb-filter.

Esta abierto el debate, ojala se pueda mantener con un nivel aceptable.

saludos,

Eliezer Acuña Lagos
25 may 2009, 18:30
Yo no tengo forma de jugar con delays en monitores.
Leyendo esto veo que es un problema.

Tenemos un teclista que siempre tiene la costumbre de ajustar constantemente la ecualización del teclado. En realidad hay dos teclistas que lo hacen. Un Roland RD700 con un ecualizador paramétrico incluido.
¡Asquerosa manía!. Me vuelven loco.

Ayer mismo, hicimos un concierto con una coral.
El caso es que si le pongo para el solo, una cuña amplificada por donde sale el piano no hay problema. Le sirve plano.

Pero es abrir piano en monitores del coro y empezamos a
"pelearnos" con la ecualización. Siempre pasa lo mismo. Quiere mas graves pero solo consigue la típica bola. Acabo siempre por recortarle de forma brutal los graves y el quejándose.

Pero si se le sube su monitor mas y se cierra en los otros, entonces empezamos a entendenos.

Entonces el director del coro reclama mas piano en sus monitores.
Y si le abro, vuelta a empezar.

Pienso que el problema es el combfilter provocado por los monitores que hace que su sonido cambie en el escenario. El intenta compensar pero, como no se puede corregir un combfilter solo con ecualización solo consigue empeorar las cosas.

¿Que se puede hacer en este caso?.
¿Se arreglaría alineando los monitores con respecto al músico?.

En mi opinión, el músico debería conformarse un poquito mas con el sonido que se le pone.
Pero es una lucha constante. :mad:

¿Sería cosa de convencerle de que aunque en escenario suene raro fuera suena bien?. Si es así ¿como lo convencería sin pretender enseñarle teoría de ondas?.

Arturo Regalado
25 may 2009, 23:37
Eliezer , mira a veces lidiar con un músico puede ser mucho mas difícil que comprobar la existencia de Dios mediante Santo Tomas o San Agustín, Jajaja. Bueno eso no pasa con todos los músicos. En EU me toco trabajar con muchos músicos que entienden los matices y que gustan de niveles moderados, bueno en fin en esta vida hay de todo no, también hay técnicos muy mamones. Ahora bien esto de los retrasos es algo apasionante y creo que en realidad ayuda mucho al sonido. Yo he empezado a retrasar el PA contra el backline y vaya diferencia de sonido, así como aplicar delay individual para micrófonos que por las técnicas de campo corto y campo largo. Y el sonido mejora muchisimo. Creo que un problema esque a mucha gente la da miedo el cambio o que su falta de información no los impulsa a intentar nuevas cosas.
No muy lejos de mi yo desde hace 3 meses utilizo arreglos lineales de subs ya no uso LR. Mi papa decía que "como esque de toda la vida se usa LR" y que yo estaba mal, hasta que le enseñe el MAPP y ademas empezó a escuchar la diferencia, creo que de esto se trata este tema así como las digitales y los line arrays se trata de un cambio de paradigma para mezclar audio en vivo.

Saludos Arturo

Alejandro Campero
26 may 2009, 07:13
No muy lejos de mi yo desde hace 3 meses utilizo arreglos lineales de subs ya no uso LR.


Yo igual me referia a usar L-R en Mid-High. Comparto lo que decis.

saludos,

Eliezer Acuña Lagos
26 may 2009, 14:35
Yo he empezado a retrasar el PA contra el backline y vaya diferencia de sonido, así como aplicar delay individual para micrófonos que por las técnicas de campo corto y campo largo. Y el sonido mejora muchisimo. Creo que un problema esque a mucha gente la da miedo el cambio o que su falta de información no los impulsa a intentar nuevas cosas.
No muy lejos de mi yo desde hace 3 meses utilizo arreglos lineales de subs ya no uso LR.

No. Si a mi no me da miedo para nada usar delays ni ensayar nuevas técnicas.
Al contrario. Siempre estoy liándola con cambios y normalmente suelen ser para bien.

El problema es mas bien la falta de medios:-(.

Solo puedo usar delays en PA. No tengo mesa digital ni delays para monitores, micrófonos y demás. Si los tuviese los usaría.

De momento, el único recurso cuado aparecen comfilter en monitores y molesta mucho, es repartir entre ellos la mezcla. Si hay 4 monitores y el piano solo sale por uno de ellos mejora mucho.
Lo mismo con bajo, guitarras y, en general cualquier fuente que de graves.

El asunto es que los músicos quieren que salga por todos los monitores pero se quejan (sin saber lo que es) por el combfilter.
Para ellos solo es que los graves no son como ellos quieren y piden solucionarlo con mas graves.
Al final, en pleno bolo, ultimamente aprendi a solucionarlo sacando el piano solo por su monitor.
No lo notan pero ven que el sonido mejora.

Lo triste es que muchas veces en las pruebas de sonido no puedes hacerlo así. "OYE. QUE NO SALGO POR ESTA CAJA".
Así que lo dejas después y todos contentos.

Enrique Toro
26 may 2009, 15:19
Yo aun no he trabajado los monitores con delays pero si, monitores con la polaridad invertida con respecto al P.A. tengo muy poco problema en tarima debe ser porque uso muchos monitores los cuales reparto por tipo de instrumentos.

Alejandro Campero
26 may 2009, 17:23
Asi es, no es que haya que volverse locos y empezar a ponerle delay a todo. Conociendo el fenomeno podemos tratar de minimizarlo, y estar atentos a mejoras que puedan lograrse cambiando un poco las posiciones de los monitores, y tambien probando con las polaridades.

saludos,

Arturo Regalado
26 may 2009, 18:02
Eso es algo bueno siempre hay que experimentar y ademas estar dispuestos a aprender nuevas cosas.

Arturo Regalado
26 may 2009, 18:07
Esa es una buena opcion y que si da mucho resultado. Estoy buscando el link de un evento von V-Dosc de la gente de Rat Sound en estados unidos, entre otros trabajan con Red Hot Chilli Peppers. En este link utilizan por lado dos sistemas, es decir 12 cajas por lado pero junto a esa linea otras cajas. Esto es en palabras del diseñador de sonido para que por un lado solo vaya la voz y por el otro toda la mezcla, esto es con el objetivo de dar mayor inteligibilidad. Un truco muy bueno. Tan pronto lo encuentre lo pego.

Saludos Arturo Regalado

Enrique Toro
26 may 2009, 18:33
Eso lo hicieron en Rock in Rio con los sistemas vertec que consistia en poner dos hileras las cuales una era solo para vocales y la otra para instrumentos. con 4 mezclas para PA.

Enrique Toro
26 may 2009, 18:34
Asi es Alejandro a mi me a dado muy buenos resultados. Ganado mas cuerpo en monitores.

Eliezer Acuña Lagos
27 may 2009, 18:15
Este domingo pasado hice un concierto de un coro en un parque.
Se empzó a mortar por la mañana y tuve mucho mas tiempo que de costumbre para ajustar. Es ese tipo de ocasión donde uno tiene tiempo para hacer experimentos.

Fue bajo una lona. Estaba el da lluvioso.
Como suele pasar en esos sitios, el sonido de los micros del coro salía muy confuso.
Ya fué muy difícil alinear el PA. Tuve que usar el EC8000 muy cerca de las cajas (suelo usarlo mas bien junto a la mesa).
Y no había forma de alinear satélites con subgraves.

Suelo panear un poco los micrófonos de ambiente. Ya se que hay mucha gente que dirá que no se debe. Que quien está a un lado se pierde lo del otro lado del PA.

Pero lo cierto es que ante problemas de reverberación y falta de claridad, paneé al máximo. Un micro al centro, otro a la izquierda y otro a la derecha.

La música solo estaba formada por una batería, un violín y un piano.

Paneé completamente los aereos de la batería y solo salió el piano por su monitor, el violín por los monitores de coro y la batería nada por monitores.
Los subgraves por salida C de la mesa aplicados solo a piano y bombo (es la primera vez que lo hago y creo que lo voy a hacer siempre).

Otra cosa que usé por primera vez fue un sencilo expansor estereo que lleva el ecualizador de PA (FBQ1024).

La mejora en inteligibilidad fue mucha. De hecho me dijeron varios que se entendía muy bien la letra de las canciones y que el violín salía muy claro.

Resumiendo. Si hay problemas de inteligibilidad, veo que resulta muy efectivo hacer que haya la menor duplicidad de fuentes posible.
Que cada altavoz saque una cosa distinta a los demás.

En sitios muy reverberantes, no hay mucho problema con el paneo. Aunque parezca que solo va a salir algo por un lado y no se oirá por el otro, el local, al final se encarga de equilibrar a base de rebotes el material sonoro.

Tengo muchas ganas de probar, y algún dia lo haré, a usar dos PAs. Uno para música y otro para voces.

Arturo Regalado
28 may 2009, 14:34
Eliezer , me da mucho gusto que te haya servido eso, este fin de semana tengo un evento y planeo hacer lo mismo, ya te cuento. Algo que tambien puedes hacer es alinear el PA, contra digamos el bombo o el ampli de bajo (esto es porque por lo general es lo que esta casi al fondo del escenario) . Por medio de una formula muy facil puedes sacar el delay. T=D/V tiempo es el tiempo de retraso , distancia es la separacion en metros que hay entre el PA y el bombo o bajo, y velocidad la del sonido. 340 m/s aprox. El tiempo te va a dar en segundos , multiplicandolo por mil te da los milisegundos. Al hacer esto te dara una claridad increible en todos tus instrumentos. Claro esto lo puedes usar con Smaart pero cuando no hay tiempo esta aproximacion puede ser bastante util y generara muy buenos resultados.

Ojo el retraso es para el sistema principal. La misma aproximacion puedes usarla para retrasar bajos contra agudos.

Saludos Arturo Regalado

Eliezer Acuña Lagos
28 may 2009, 14:41
¿Te refieres a alinear el sonido del PA con el bombo?.

Pues el mes que viene, que tenemos bolo rock, lo probaré.
En PA si tengo delays.

Lo que veo raro es lo de retrasar una via con respecto a la otra (bajos contra agudos).
¿Que ganas con eso?.

Alejandro Campero
28 may 2009, 17:34
Eliezer , me da mucho gusto que te haya servido eso, este fin de semana tengo un evento y planeo hacer lo mismo, ya te cuento. Algo que tambien puedes hacer es alinear el PA, contra digamos el bombo o el ampli de bajo (esto es porque por lo general es lo que esta casi al fondo del escenario) . Por medio de una formula muy facil puedes sacar el delay. T=D/V tiempo es el tiempo de retraso , distancia es la separacion en metros que hay entre el PA y el bombo o bajo, y velocidad la del sonido. 340 m/s aprox. El tiempo te va a dar en segundos , multiplicandolo por mil te da los milisegundos. Al hacer esto te dara una claridad increible en todos tus instrumentos. Claro esto lo puedes usar con Smaart pero cuando no hay tiempo esta aproximacion puede ser bastante util y generara muy buenos resultados.

Ojo el retraso es para el sistema principal. La misma aproximacion puedes usarla para retrasar bajos contra agudos.

Saludos Arturo Regalado


Hay dos motivos por los cuales se puede elegir retrasar el PA a la linea del back-line:

Uno es para tener una imagen sonora mas coherente y el otro es, en caso que la presion del backline avance sobre nuestra cobertura del PA. En el primer caso no hay problema y se puede trabajar por aproximacion midiendo la distancia si quieren con pasos. Pero en el segundo caso, si el problema que tenemos es que en un sector del publico llegan el backline y el PA al mismo nivel, debemos contar con otro tipo de informacion que es la relacion de fase entre ambas fuentes (en este caso no vale aproximarnos contando pasos, aunque asi y todo notemos alguna mejora). Lo ideal es obtener una buena relacion de fase entre el equipo del instrumento que mas nos molesta y el sistema de PA. Doy por hecho que tambien tenemos una buena relacion de fase entre el sistema principal y el front-fill.

Cuando hay tiempo para experimentar, y algun colega que nos siga la locura, se pone divertido y nos acercamos mas a los buenos resultados.

saludos,

Enrique Toro
28 may 2009, 17:59
Arturo
No veo esto Nada Practico noi que ayude mucho al contrario.

Arturo Regalado
31 may 2009, 15:38
Enrique respeto mucho tu opinión, sin embargo te invito a que lo intentes y empieces a escuchar las diferencias con y sin la aplicación de estas correcciones de fase. El sonido marcadamente cambia y para bien. Desde que empece a utilizar esto en mis eventos ha cambiado mucho la calidad de las mezclas y la definición con la que se escuchan todos los instrumentos. Uno tiene que siempre buscar lo mejor y si eso significa un cambio de paradigma pues por hacer lo mejor vale la pena el cambio. Esto es igual que la discusión de los subs si en linea o L-R etc...... Lo mas practico podrá ser el L-R pero no siempre es lo mejor y eso esta comprobado con física y ciencia. La reducción del filtro de peine (cancelaciones) por estos medios esta igualmente comprobado con física y ciencia.
En mi experiencia y estoy seguro que en la de muchos esto ha funcionado de maravilla. La pequeña diferencia entre un buen sonido y un sonido excelente son estos detalles, te invito a que experimentes y logres ese sonido excelente.

Arturo Regalado

Sergio Arena
31 may 2009, 22:03
disculpen que me meta en el tema pero es apacionante.
les sugiero que lean sobre el efecto hass, donde se explica que una diferencia de 5 milisegundos es suficiente para determinar la direccion de una fuente de sonido y para evitar esta deteccion del iodo es necesario atenuar 10 db en la fuente mas proxima.
esto pone en evidencia que retardar el side field o algun monitor de piso sera detectado por el oido infalible de un musico.
pongo como ejemplo practico la presion brutal que se requiere en el drums field, para que el baterista no detecte los golpes de tambor doblados.
desde mi humilde punto de vista no se pueden interponer delays en el monitoreo,inclusive tomaria en cuenta el tiempo de latencia de los eculizadores y controladores de sistema digitales que se intercalen en el monitoreo.
espero que estos argumentos sean de utilidad.

Luis Rodríguez Calles
01 jun 2009, 06:10
disculpen que me meta en el tema pero es apacionante.
les sugiero que lean sobre el efecto hass, donde se explica que una diferencia de 5 milisegundos es suficiente para determinar la direccion de una fuente de sonido y para evitar esta deteccion del iodo es necesario atenuar 10 db en la fuente mas proxima.
esto pone en evidencia que retardar el side field o algun monitor de piso sera detectado por el oido infalible de un musico.
pongo como ejemplo practico la presion brutal que se requiere en el drums field, para que el baterista no detecte los golpes de tambor doblados.
desde mi humilde punto de vista no se pueden interponer delays en el monitoreo,inclusive tomaria en cuenta el tiempo de latencia de los eculizadores y controladores de sistema digitales que se intercalen en el monitoreo.
espero que estos argumentos sean de utilidad.

Creo que se trataría, corríjanme si me equivoco, de retrasar todos los sistemas de PA con respecto al monitoreo de escenario, es decir, en los procesos de señal de las mezclas de monitores no se introduciría ningún delay, sino que se trataría de alinear en fase por ejemplo cajas de HI-MED y los subs con respecto a sidefills, etc. por lo que los delays se insertarían en estos procesos.

El músico que está encima del escenario, así, no observa ninguna latencia en su monitoreo, y al frente del escenario se consigue una mayor coherencia entre fuentes.

Tema interesante este, habrá que probar alguna vez.
Un saludo.

Gabriel Szkuhra
01 jun 2009, 09:58
...El músico que está encima del escenario, así, no observa ninguna latencia en su monitoreo, y al frente del escenario se consigue una mayor coherencia entre fuentes.

Tema interesante este, habrá que probar alguna vez.
Un saludo.

Ten en cuenta que retrasar el PA con respecto al backline o side fill, visto desde el público las fuentes sonoras se juntan y llegan al mismo tiempo. Pero visto desde arriba del escenario, el PA se aleja y dependiendo de cuanto suene hacia atras el PA, este generará com filter en el monitoreo, ademas del mencinado doble golpe.

Esta práctica, que puede dar buenos resultados, es muy delicada de implementar y en algunos casos funciona y en otros no.

Si se trata de un escenario silencioso o de bajo SPL, fácilmente superado por el PA inclusive en la primeras filas de audiencia, es preferible retrasar el monitoreo para que lo que se mete en el escenario del PA no genere com filter, pero hacer esto puede traer problemas mas serios ya que al estar retrasado el monitoreo puede confundir o incomodar a los músicos mas que el mega mencionado enemigo nuestro com filter.

Luis Rodríguez Calles
01 jun 2009, 14:35
Ten en cuenta que retrasar el PA con respecto al backline o side fill, visto desde el público las fuentes sonoras se juntan y llegan al mismo tiempo. Pero visto desde arriba del escenario, el PA se aleja y dependiendo de cuanto suene hacia atras el PA, este generará com filter en el monitoreo, ademas del mencinado doble golpe.

Esta práctica, que puede dar buenos resultados, es muy delicada de implementar y en algunos casos funciona y en otros no.



Efectivamente no había pensado en la interacción PA - monitores, especialmente problemática supongo, por el número de fuentes que suele haber encima del escenario.
Aun así sigue siendo cierto que más desastrosa sería la situación contraria, con un desajuste de tiempo en monitores respecto a lo que se está ejecutando.

Caer en esto antes de hacer nada es lo que diferencia a un profesional de un principiante como yo que se dedica a mirar :D

Un saludo!

Alejandro Campero
01 jun 2009, 15:38
Bueno, son herramientas, cada quien sabra en que momento conviene o no utilizarlas. Por ejemplo: Si estamos frente a musicos que pudieran reconocer 3 ms de delay en su monitor (lo cual equivaldria a alejarle un metro dicho monitor de su posicion), podemos ver las curvas y fijarnos si tan solo con una inversion de polaridad logramos algun efecto beneficioso o no.
Yo les expuse un caso de la realidad, y en el que si funciono.

La onda es conocer el fenomeno, poder reconocerlo, y ver si de alguna manera lo podemos evitar. Si no seguimos trabajando como siempre y listo.

saludos,

Rubén González de Marcos
04 jun 2009, 17:18
Si retrasamos la P.A. para alinearla con el bacline o incluso con el monitorado de escenario, debemos tener en cuenta que desde la optica del músico la distanciamos más, pues para el músico es la P.A. la fuente más lejana. (Apreciamos al público, pero si la P.A. es capaz de aislar por nivel el monitorado, merecerá la pena sacrificar al músico. Todos los conocemos!

Es mi humilde opinión, pero yo creo que las buenas técnicas de monitorado deben optar más por la búsqueda del aislamiento de nivel para hacer menos severo el rizado y por la búsqueda de los envíos menos correlacionados posibles para que se produzca en el escenario mezcla acústica y no suma contructiva-substractiva.

Es lo que digo, es mi humilde opinión pero estoy contento con los resultados.

Ricardo (kaito) Barragán
04 jun 2009, 21:46
Si retrasamos la P.A. para alinearla con el bacline o incluso con el monitorado de escenario, debemos tener en cuenta que desde la optica del músico la distanciamos más, pues para el músico es la P.A. la fuente más lejana. (Apreciamos al público, pero si la P.A. es capaz de aislar por nivel el monitorado, merecerá la pena sacrificar al músico. Todos los conocemos!



Hola Ruben.
Creo que se esta distorsionando un poco el tema de retrasar el P.A. con respecto a una fuente sonora dentro de el escenario.
Vamos a ver si podemos organizarlo.
Yo creo que como bien decía el compañero Campero existen dos razones por lo cual uno retrasa el P.A.

1-IMAGEN SONORA- Por ejemplo cuando en una sala de teatro uno tiene multiples fuentes de sonido para cubrir la audiencia de dicha sala, ( P.A.- Frontfill- Outfill- Delays-Underbalcony etc..) Se utiliza una fuente ficticia dentro del escenario para que por lo menos los gabinetes mas cercanos al escenario esten alineados en tiempo con esta fuente ficticia (monitor o cualquier fuente de sonido) y asi preservar la Imagen sonora.
Osea crear la sensacion en toda la sala que el sonido proviene desde el escenario.

2-COMPETENCIA DE NIVEL.- Si en las primeras filas de la audiencia se llegara a escuchar algun instrumento dentro del escenario que compita con el nivel de dicho instrumento amplificado por los gabinetes de P.A., entonces uno debe retrasar en tiempo el P.A. con respecto a este instrumento para que asi las dos fuentes de sonido lleguen al mismo tiempo en la posicion de audiencia.

En cualquiera de los dos casos el tiempo de retraso introducido en el P.A. puede variar con las dimensiones de la sala, escenario, predio etc.., pero de acuerdo a lo que he experimentado en estos años , nunca tuve que retrasarlo mas de unos 15 o 20 milisegundos (generalmente de 10 a 15ms).
estos 15milisegundos equivalen a unos 5,15mts (a 20 grados celcius de temperatura).

Nuestro oido interpreta dos fuentes de sonido con diferencia de tiempo como una sola hasta los 40 o 50 milisegundos (50 milisegundos equivalen a 17.18mts). A partir de alli uno comienza a percibir recien la diferencia de tiempo como un delay o doble golpe etc..

Asi que no le demos tanta relevancia a analizar si los musicos dentro del escenario van a confundir el beat del tema por el retraso del P.A.

Saludos...............

David Orlando Silva Sillerico
05 jun 2009, 01:13
Darles las gracias por este interesante tema de discusion ya que por fin estoy entiendo un articulo de la revista MIX (Diciembre 1994, por cierto mi primer material de audio).

Se refiere al ingeniero de sonido Alex NOrbert quien acompaño en la gira de conciertos de LUis Miguel en EEUU y el albun "segundo romance", quien se refiere a a utilizar retardos en su sistema de sonido y va asi:

"....Luego retardamos el cluster principal con respecto a un punto en el escenario, generalmente respecto a la tarima del baterista. En seguida retardamos los parlantes superiores y las torres con respecto al cluster principal . Con el SIM, los tiempos de restardo son precisos . Esto nos ayuda a crear la imagen que el sonido viene del escenario y no de los parlantes....."

Saludos Cordiales a todos.

Rubén González de Marcos
05 jun 2009, 03:27
Hola Ruben.
Creo que se esta distorsionando un poco el tema de retrasar el P.A. con respecto a una fuente sonora dentro de el escenario.
Vamos a ver si podemos organizarlo.
Yo creo que como bien decía el compañero Campero existen dos razones por lo cual uno retrasa el P.A.

1-IMAGEN SONORA- Por ejemplo cuando en una sala de teatro uno tiene multiples fuentes de sonido para cubrir la audiencia de dicha sala, ( P.A.- Frontfill- Outfill- Delays-Underbalcony etc..) Se utiliza una fuente ficticia dentro del escenario para que por lo menos los gabinetes mas cercanos al escenario esten alineados en tiempo con esta fuente ficticia (monitor o cualquier fuente de sonido) y asi preservar la Imagen sonora.
Osea crear la sensacion en toda la sala que el sonido proviene desde el escenario.

2-COMPETENCIA DE NIVEL.- Si en las primeras filas de la audiencia se llegara a escuchar algun instrumento dentro del escenario que compita con el nivel de dicho instrumento amplificado por los gabinetes de P.A., entonces uno debe retrasar en tiempo el P.A. con respecto a este instrumento para que asi las dos fuentes de sonido lleguen al mismo tiempo en la posicion de audiencia.

En cualquiera de los dos casos el tiempo de retraso introducido en el P.A. puede variar con las dimensiones de la sala, escenario, predio etc.., pero de acuerdo a lo que he experimentado en estos años , nunca tuve que retrasarlo mas de unos 15 o 20 milisegundos (generalmente de 10 a 15ms).
estos 15milisegundos equivalen a unos 5,15mts (a 20 grados celcius de temperatura).

Nuestro oido interpreta dos fuentes de sonido con diferencia de tiempo como una sola hasta los 40 o 50 milisegundos (50 milisegundos equivalen a 17.18mts). A partir de alli uno comienza a percibir recien la diferencia de tiempo como un delay o doble golpe etc..

Asi que no le demos tanta relevancia a analizar si los musicos dentro del escenario van a confundir el beat del tema por el retraso del P.A.

Saludos...............

Hola Ricardo, ante todo darte las gracias por la contestación, pero creo que no has entendido la pregunta que dejo abierta. Lo que me contestas es algo que afortunadamente tengo asimilado y entendido desde hace años pues me dedico al diseño de sistemas desde hace años. Probablemente no me expliqué muy bien, pero mi intención era lanzar una pregunta para la reflexión que creo, es mi opinión, tiene un giro más de tuerca a lo que para muchos ya es obvio que son los efectos de procedencia y los aliniamientos con delays. Lo que mucha gente hace mal, lo he visto millones de veces, es hacer las mediciones en puntos estrategicamente equivocados, pensando que está sincronizando sistemas cuando en realidad está dándo sincronía en un punto dónde un sistema está aislado respecto al otro y ahí no existe una gran varianza de ripple.

No se si me explico, de todas maneras gracias por la contestación pero mi comentario obviaba esta información por considerarla asumida en este post.

Ricardo (kaito) Barragán
05 jun 2009, 08:24
Hola Ricardo, ante todo darte las gracias por la contestación, pero creo que no has entendido la pregunta que dejo abierta. Lo que me contestas es algo que afortunadamente tengo asimilado y entendido desde hace años pues me dedico al diseño de sistemas desde hace años. Probablemente no me expliqué muy bien, pero mi intención era lanzar una pregunta para la reflexión que creo, es mi opinión, tiene un giro más de tuerca a lo que para muchos ya es obvio que son los efectos de procedencia y los aliniamientos con delays. Lo que mucha gente hace mal, lo he visto millones de veces, es hacer las mediciones en puntos estrategicamente equivocados, pensando que está sincronizando sistemas cuando en realidad está dándo sincronía en un punto dónde un sistema está aislado respecto al otro y ahí no existe una gran varianza de ripple.

No se si me explico, de todas maneras gracias por la contestación pero mi comentario obviaba esta información por considerarla asumida en este post.

Hola Ruben.
Disculpas por la confusión. Espero esta vez estar parado en un punto estratégico de la respuesta jajaja.
Los ajustes de tiempo que todos hacemos en algun momento se refieren solamente al punto de partida de la medición. Osea que la diferencia de tiempo de dicha medición sirve solamente en ese punto del espacio. Si nos corremos un metro hacia cualquier coordenada del espacio ya no estamos alineados en tiempo.
Entonces la pregunta que nos hacemos es "cual es el punto dentro de la audiencia que me permitira hacer un ajuste de tiempo que sirva para todos por igual??", bueno la respuesta es "en ningún lado".
Pero si podemos buscar la zona donde exista la mayor interaccion de nivel entre las dos fuentes a ajustar y elegir el punto donde pondremos nuestro mic de medicion,o el principio de nuestra cinta métrica o donde pondremos el primer pie para comenzar a medir por pazos.
En conclusión, lo que siempre debemos hacer es ajustar los tiempos de delay de dos fuentes de sonido donde sea igual o parecida la respuesta de nivel de las dos fuentes, porque en ese punto, el desajuste de tiempo seria donde mas degradación de audio causaría.Porque a medida que nos alejemos de este punto, si bien va a comenzar a existir desajuste de tiempo, el nivel de las dos fuentes ya no van a ser iguales y por lo tanto la degradación de audio ya no va a ser tan severa.
Este realmente es el punto estratégico.

saludos..........

Sergio Arena
05 jun 2009, 09:05
salud para todos
creo que los compañeros foristas han discurrido sobre el tema desde todos los angulos posibles y han hechdo gran luz al respecto.
solo podria agregar algo sobre la influencia de el sub low del PA sobre la escena y es que cuando mas retrasemos el PA menos sumara con los monitores.
en vista de que lo que mas se acerca a lo ideal es que cada monitor cubra un area especifica,de todos modos se ven afectados por el sub proveniente de el PA.
supongo que cada tecnico tomara sus determinaciones en funcion de el tamaño de la escena y la cercania de el PA.
cuando los escenarios son pequeños ,ajustar todo como si el set de drums fuera el foco puntual, esta bueno.
pero en un escenario de 18 metros de boca las cosas se ponen mas relativas, las distancias se agrandan mucho y los tiempos de arrivo tambien y establecer mas retardos...
de todas maneras el monitoreo in-ear elimina muchos de estos lios y tiene una inteligibilidd asombrosa (en el caso de los de alta calidad)
agradezco a doctor pro audio por la invitacion al debate envida por mail
y saludo afectuosamente atodos los foristas

Gabriel Szkuhra
05 jun 2009, 10:02
Quisiera aclarar un poco mis comentarios porque puede ser que se tomen erroneamente.

Con respecto a retrasar el PA, estoy de acuerdo con esta práctica.

Solo indique alguna posible contraindicación, porque todo este rollo comienza con tomarse el trabajo de ajustar delays en monitores para solucionar problemas de comb filter, y retrasar el PA contribuye o modifica al comb filter del escenario, es decir retrasar el PA contradecía un poco la actividad de retrasar monitores.

To esto, dependerá de cada caso si suma o si trae inconvenientes. Lo bueno es conocer todas la opciones para tomar la mejor desición.

Ricardo (kaito) Barragán
05 jun 2009, 11:16
Quisiera aclarar un poco mis comentarios porque puede ser que se tomen erroneamente.

Con respecto a retrasar el PA, estoy de acuerdo con esta práctica.

Solo indique alguna posible contraindicación, porque todo este rollo comienza con tomarse el trabajo de ajustar delays en monitores para solucionar problemas de comb filter, y retrasar el PA contribuye o modifica al comb filter del escenario, es decir retrasar el PA contradecía un poco la actividad de retrasar monitores.

To esto, dependerá de cada caso si suma o si trae inconvenientes. Lo bueno es conocer todas la opciones para tomar la mejor desición.

Lo que queda aclarado es tu mensaje anterior es totalmente diabólico.
Gabriel Szkuhra
Fecha de ingreso: feb 2007
País: Argentina
Mensajes: 666

Saludos.......

Gabriel Szkuhra
05 jun 2009, 11:18
Jajjjajaja excelente !!!

Rubén González de Marcos
06 jun 2009, 04:55
Efectivamente Ricardo, los puntos de igual nivel es dónde se debe buscar sincronía porque son los sitios dónde más rizo podemos encontrarnos. Pero en el caso de sincronizar con el backline, este método te llevaría al escenario, por lo que no creo que sea el más correcto (se pierde el sentido de la técnica), si bien es el que hay que utilizar cuando se hacen cualquier tipo de arreglos asimétricos (delay tapering) o se empastan subsistemas al sistema principal tipo fills. He visto como gente en festivales gordos sincronizan todo respecto a la posición de mezcla ( Sistema principal con delay para empastar con Outfill) y para mi esto es contraproducente porque hay que tratar los fills desde sus zonas de cobertura de lo contrario desde estas zonas separamos más las cosas y aparecerá nuestro filtro peine en frecuencias más bajas, yo creo que es la maldita obsesión de verlo todo desde la óptica del control. Por otro lado, en las torres de delay es díficil encontrar este punto de igual nivel porque probablemente esté punto estaría fuera de la cobertura de agudos de la torre de delays; por lo que se busca más bien un efecto de procedencia más que una sincronía para evitar combfilter ya que detrás de la torre de delay ( dentro de su cobertura) el aislamiento por nivel es más que suficiente. Otra mención diferente son los sistemas delay que si intentan imitar la ley de divergencía dónde el tratamiento es otro.

Por otro lado, No estoy de acuerdo en que el delay sólo valga para un punto, todo depende del diseño. Si los arreglos de delay se han ubicado correctamente la sincronía no sólo valdrá para un punto (afortunadamente). Lo importante es saber buscar los puntos estrategios para hacer la función impulso y tener fe en que la temperatura no se eleve 15º en el evento.

Un saludo Ricardo, ahí dejo de nuevo mi humilde opinión.

Ricardo (kaito) Barragán
06 jun 2009, 08:21
Efectivamente Ricardo, los puntos de igual nivel es dónde se debe buscar sincronía porque son los sitios dónde más rizo podemos encontrarnos. Pero en el caso de sincronizar con el backline, este método te llevaría al escenario, por lo que no creo que sea el más correcto (se pierde el sentido de la técnica)



Por otro lado, No estoy de acuerdo en que el delay sólo valga para un punto, todo depende del diseño. Si los arreglos de delay se han ubicado correctamente la sincronía no sólo valdrá para un punto (afortunadamente). Lo importante es saber buscar los puntos estrategios para hacer la función impulso y tener fe en que la temperatura no se eleve 15º en el evento.

Hola Ruben.
Con respecto al primer parrafo citado,te comento que esta tecnica de retrasar o poner en fase el P.A. con respecto a un instrumento se utiliza en el caso de que el instrumento invada con mucho nivel el area de cobertura del P.A.
Como por ejemplo cuando el guitarrista toca con una pared de 6 Marshall JCM900 a su espalda. Sin duda que este sonido competira en las primeras filas con el P.A., aun en un escenario de tamaño considerable. En esa competencia de nivel en las primeras filas (no en el escenario) debemos buscar el punto estrategico para tomar la señal de los diferentes tiempos de arribo.

Por otro lado, con respecto al segundo parrafo interpreto que queres decir la siguiente:
Si elegimos un muy buen punto estrategico donde colocar nuestro microfono para tomar la respuesta de impulso, luego hacemos los ajustes de nivel y por ultimo hacemos los ajustes de tiempo debidamente. seguramente en la practica nos de(sensación auditiva) una amplia zona de interaccion entre las dos fuentes en la cual no se note el desajuste de tiempo, y ese es nuestro cometido.
Pero lamentablemente para nosotros,la fisica y las matematicas dicen que en el unico punto en el espacio donde no hay desajuste de tiempo es donde has colocado el microfono para tomar el impulso.

Te mando un gran abrazo y quiero decirte que me da mucho gusto debatir contigo.

Arturo Regalado
07 jun 2009, 00:28
Este post es para agradecer a todos su participacion en esta discusion. La ayuda que me han brindado todos se las agradezco mucho. Este es sin duda un post que creo ayudara a muchos tanto expertos como novatos. Espero que en el foro se sigan dando este tipo de posts que creo son una verdadera fuente de conocimiento.

Saludos Arturo Regalado