La electrónica analógica ( inglés americano : electrónica analógica ) es un sistema electrónico con una señal continuamente variable, en contraste con la electrónica digital, donde las señales usualmente toman solo dos niveles . El término "analógico" describe la relación proporcional entre una señal y una tensión o corriente que representa la señal. La palabra análogo se deriva de la palabra griega ανάλογος (analogos) que significa "proporcional".
Señales analógicas [ editar ]
Una señal analógica utiliza algún atributo del medio para transmitir la información de la señal. Por ejemplo, un barómetro aneroide utiliza la posición angular de una aguja como la señal para transmitir la información de los cambios en la presión atmosférica . [2] Las señales eléctricas pueden representar información al cambiar su voltaje, corriente, frecuencia o carga total. La información se convierte de otra forma física (como sonido, luz, temperatura, presión, posición) a una señal eléctrica mediante un transductor que convierte un tipo de energía en otro (por ejemplo, un micrófono ). [3]
Las señales toman cualquier valor de un rango dado, y cada valor de señal único representa información diferente. Cualquier cambio en la señal es significativo, y cada nivel de la señal representa un nivel diferente del fenómeno que representa. Por ejemplo, suponga que la señal se está utilizando para representar la temperatura, con un voltio que representa un grado centígrado. En tal sistema, 10 voltios representarían 10 grados, y 10.1 voltios representarían 10.1 grados.
Otro método para transmitir una señal analógica es utilizar la modulación . En esto, alguna señal portadora base tiene una de sus propiedades alterada: la modulación de amplitud (AM) implica alterar la amplitud de una forma de onda de tensión sinusoidal por la información de la fuente, la modulación de frecuencia (FM) cambia la frecuencia. También se utilizan otras técnicas, como la modulación de fase o el cambio de fase de la señal portadora. [4]
En una grabación de sonido analógica, la variación en la presión de un sonido al tocar un micrófono crea una variación correspondiente en la corriente que pasa a través de él o el voltaje a través de él. Un aumento en el volumen del sonido hace que la fluctuación de la corriente o el voltaje aumente proporcionalmente mientras se mantiene la misma forma de onda o forma.
Ruido inherente [ editar ]
Los sistemas analógicos invariablemente incluyen ruido que es alteraciones o variaciones aleatorias, algunas causadas por las vibraciones térmicas aleatorias de las partículas atómicas. Dado que todas las variaciones de una señal analógica son significativas, cualquier perturbación es equivalente a un cambio en la señal original y, por lo tanto, aparece como ruido. [5] A medida que la señal se copia y se vuelve a copiar, o se transmite a grandes distancias, estas variaciones aleatorias se vuelven más significativas y conducen a la degradación de la señal. Otras fuentes de ruido pueden incluir interferencia de otras señales o componentes mal diseñados. Estas perturbaciones se reducen mediante el blindaje y mediante el uso de amplificadores de bajo ruido (LNA). [6]
Electrónica analógica vs digital [ editar ]
Como la información se codifica de forma diferente en la electrónica analógica y digital , la forma en que procesan una señal es, por lo tanto, diferente. Todas las operaciones que se pueden realizar en una señal analógica, como amplificación , filtrado , limitación y otras, también se pueden duplicar en el dominio digital. Cada circuito digital es también un circuito analógico, en el que el comportamiento de cualquier circuito digital puede explicarse utilizando las reglas de los circuitos analógicos.
El uso de la microelectrónica ha hecho que los dispositivos digitales sean baratos y ampliamente disponibles.
Ruido [ editar ]
El efecto del ruido en un circuito analógico es una función del nivel de ruido. Cuanto mayor es el nivel de ruido, más se perturba la señal analógica, y lentamente se vuelve menos utilizable. Debido a esto, se dice que las señales analógicas "fallan con gracia". Las señales analógicas aún pueden contener información inteligible con niveles muy altos de ruido. Los circuitos digitales, por otro lado, no se ven afectados en absoluto por la presencia de ruido hasta que se alcanza un cierto umbral, momento en el que fallan catastróficamente. Para las telecomunicaciones digitales , es posible aumentar el umbral de ruido con el uso de detección y corrección de erroresEsquemas de codificación y algoritmos. Sin embargo, todavía hay un punto en el que se produce un fallo catastrófico del enlace. [7] [8]
En electrónica digital, debido a que la información se cuantifica , siempre que la señal se mantenga dentro de un rango de valores, representa la misma información. En los circuitos digitales, la señal se regenera en cada compuerta lógica , disminuyendo o eliminando el ruido. [9] [ no en la cita dada ] En circuitos analógicos, la pérdida de señal se puede regenerar con amplificadores . Sin embargo, el ruido es acumulativo en todo el sistema y el propio amplificador se sumará al ruido de acuerdo con su figura de ruido . [10] [11]
Precisión [ editar ]
Hay una serie de factores que afectan la precisión de la señal, principalmente el ruido presente en la señal original y el ruido agregado por procesamiento (consulte la relación señal / ruido ). Los límites físicos fundamentales, como el ruido de disparo en los componentes, limitan la resolución de las señales analógicas. En la electrónica digital se obtiene una precisión adicional utilizando dígitos adicionales para representar la señal. El límite práctico en el número de dígitos está determinado por el rendimiento del convertidor analógico a digital(ADC), ya que las operaciones digitales generalmente se pueden realizar sin pérdida de precisión. El ADC toma una señal analógica y la convierte en una serie de números binarios. El ADC se puede utilizar en dispositivos de visualización digital simples, por ejemplo, termómetros o medidores de luz, pero también se puede usar en la grabación de sonido digital y en la adquisición de datos. Sin embargo, se utiliza un convertidor digital a analógico(DAC) para cambiar una señal digital a una señal analógica. Un DAC toma una serie de números binarios y los convierte en una señal analógica. Es común encontrar un DAC en el sistema de control de ganancia de un amplificador operacional que, a su vez, se puede usar para controlar los amplificadores y filtros digitales. [12]
Dificultad de diseño [ editar ]
Los circuitos analógicos suelen ser más difíciles de diseñar y requieren más habilidad que los sistemas digitales comparables. [ cita requerida ] Esta es una de las principales razones por las que los sistemas digitales se han vuelto más comunes que los dispositivos analógicos. Un circuito analógico generalmente se diseña a mano, y el proceso es mucho menos automatizado que para los sistemas digitales. Desde principios de la década de 2000, se desarrollaron algunas plataformas que permitieron definir el diseño analógico mediante software, lo que permite un prototipado más rápido. Sin embargo, si un dispositivo electrónico digital interactúa con el mundo real, siempre necesitará una interfaz analógica. [13] Por ejemplo, cada receptor de radio digital tiene un preamplificador analógico como primera etapa en la cadena de recepción.
Clasificación del Circuito [ editar ]
Los circuitos analógicos pueden ser completamente pasivos , consistentes en resistencias , condensadores e inductores . Los circuitos activos también contienen elementos activos como transistores . Muchos circuitos analógicos pasivos se construyen a partir de elementos agrupados . Es decir, componentes discretos. Sin embargo, una alternativa son los circuitos de elementos distribuidos construidos a partir de piezas de línea de transmisión .
Los filtros analógicos son un componente básico del procesamiento de señales muy utilizado en la electrónica . Entre sus muchas aplicaciones están la separación de una señal de audio antes de la aplicación a los altavoces de bajos , medios y tweeter ; la combinación y posterior separación de múltiples conversaciones telefónicas en un solo canal; la selección de una estación de radio elegida en un receptor de radio y el rechazo de otros.
Los filtros analógicos electrónicos pasivos lineales son aquellos filtros que se pueden describir con ecuaciones diferenciales lineales (lineales); están compuestas de condensadores , inductores y, a veces, resistencias ( pasivas ) y están diseñadas para funcionar con señales continuamente variables ( analógicas ). Hay muchos filtros lineales que no son analógicos en la implementación ( filtro digital ), y hay muchos filtros electrónicos que pueden no tener una topología pasiva; ambos pueden tener la misma función de transferenciaDe los filtros descritos en este artículo. Los filtros analógicos se utilizan con mayor frecuencia en aplicaciones de filtrado de ondas, es decir, donde se requiere pasar componentes de frecuencia particulares y rechazar otros de señales analógicas ( tiempo continuo ).
Los filtros analógicos han jugado un papel importante en el desarrollo de la electrónica. Especialmente en el campo de las telecomunicaciones , los filtros han sido de crucial importancia en una serie de avances tecnológicos y han sido la fuente de enormes ganancias para las compañías de telecomunicaciones. No debería sorprender, por lo tanto, que el desarrollo temprano de los filtros estuviera íntimamente conectado con las líneas de transmisión . La teoría de las líneas de transmisión dio origen a la teoría de los filtros, que inicialmente tomó una forma muy similar, y la aplicación principal de los filtros fue para el uso en las líneas de transmisión de telecomunicaciones. Sin embargo, la llegada de las técnicas de síntesis de red mejoró en gran medida el grado de control del diseñador.
Hoy en día, a menudo es preferible llevar a cabo el filtrado en el dominio digital donde los algoritmos complejos son mucho más fáciles de implementar, pero los filtros analógicos siguen encontrando aplicaciones, especialmente para tareas de filtrado simple de bajo orden y con frecuencia siguen siendo la norma en frecuencias más altas donde el digital. La tecnología sigue siendo poco práctica, o al menos, menos rentable. Siempre que sea posible, y especialmente a bajas frecuencias, los filtros analógicos ahora se implementan en una topología de filtro que está activa para evitar los componentes de la herida (es decir, inductores, transformadores, etc.) requeridos por la topología pasiva .
Es posible diseñar filtros mecánicos analógicos lineales utilizando componentes mecánicos que filtran vibraciones mecánicas u ondas acústicas . Si bien existen pocas aplicaciones para tales dispositivos en la mecánica, se pueden usar en electrónica con la adición de transductores para convertir hacia y desde el dominio eléctrico. De hecho, algunas de las primeras ideas para los filtros fueron resonadores acústicos porque la tecnología electrónica era poco conocida en ese momento. En principio, el diseño de tales filtros se puede lograr completamente en términos de contrapartes electrónicas de cantidades mecánicas, con energía cinética , energía potencial y energía térmica. Corresponde a la energía en inductores, capacitores y resistencias respectivamente.
Resumen histórico [ editar ]
Hay tres etapas principales en la historia del desarrollo del filtro pasivo analógico :
- Filtros simples . La dependencia de la frecuencia de la respuesta eléctrica fue conocida desde muy temprano por los condensadores e inductores. El fenómeno de resonancia también fue familiar desde una fecha temprana y fue posible producir filtros simples de una sola rama con estos componentes. Aunque en la década de 1880 se hicieron intentos para aplicarlos a la telegrafía , estos diseños demostraron ser inadecuados para la multiplexación exitosa por división de frecuencia . El análisis de la red aún no era lo suficientemente poderoso como para proporcionar la teoría de filtros más complejos y el progreso se vio obstaculizado aún más por una falla general en comprender la naturaleza del dominio de la frecuencia de las señales.
- Filtros de imagen . La teoría del filtro de imagen surgió de la teoría de la línea de transmisión y el diseño se desarrolló de manera similar al análisis de la línea de transmisión. Por primera vez, se podían producir filtros que tuvieran bandas de paso y otros parámetroscontrolables con precisión. Estos desarrollos tuvieron lugar en la década de 1920 y los filtros producidos para estos diseños todavía se utilizaron ampliamente en la década de 1980, solo disminuyendo a medida que disminuyó el uso de las telecomunicaciones analógicas. Su aplicación inmediata fue el desarrollo económicamente importante de la multiplexación por división de frecuencia para uso en líneas telefónicas interurbanas e internacionales.
- Filtros de síntesis de red . Las bases matemáticas de la síntesis de redes se establecieron en los años 1930 y 1940. Después del final de la Segunda Guerra Mundial , la síntesis de redes se convirtió en la herramienta principal del diseño de filtros . La síntesis de red coloca el diseño del filtro en una base matemática firme, liberándolo de las técnicas matemáticamente descuidadas de diseño de imagen y cortando la conexión con las líneas físicas. La esencia de la síntesis de red es que produce un diseño que reproducirá con precisión (al menos si se implementa con componentes ideales) la respuesta originalmente especificada entérminos de recuadro negro .
A lo largo de este artículo, las letras R, L y C se utilizan con sus significados habituales para representar la resistencia , la inductancia y la capacitancia , respectivamente. En particular, se utilizan en combinaciones, como LC, para significar, por ejemplo, una red que consiste solo de inductores y condensadores. Z se usa para la impedancia eléctrica , cualquier combinación de elementos RLC [nota 1] de 2 terminales y en algunas secciones D se usa para la cantidad rara que se ve en la elastancia , que es la inversa de la capacitancia.
Resonancia [ editar ]
Los primeros filtros utilizaron el fenómeno de la resonancia para filtrar las señales. Aunque los investigadores investigaron la resonancia eléctrica desde una etapa muy temprana, al principio los ingenieros eléctricos no lo entendían ampliamente. En consecuencia, el concepto mucho más familiar de resonancia acústica (que a su vez, puede explicarse en términos de la resonancia mecánica aún más familiar ) encontró su camino en el diseño de filtros antes de la resonancia eléctrica. [1]La resonancia se puede usar para lograr un efecto de filtrado porque el dispositivo resonante responderá a las frecuencias en o cerca de la frecuencia de resonancia, pero no responderá a las frecuencias que están lejos de la resonancia. Por lo tanto, las frecuencias alejadas de la resonancia se filtran de la salida del dispositivo. [2]
Resonancia eléctrica [ editar ]
La resonancia se notó al principio en los experimentos con el tarro de Leyden , inventado en 1746. El tarro de Leyden almacena electricidad debido a su capacidad , y es, de hecho, una forma temprana de condensador. Cuando se descarga una jarra de Leyden al permitir que una chispa salte entre los electrodos, la descarga es oscilatoria. Esto no se sospechó hasta 1826, cuando Felix Savary en Francia, y más tarde (1842) Joseph Henry [3] en los EE. UU. Notó que una aguja de acero colocada cerca de la descarga no siempre se magnetiza en la misma dirección. Ambos, de forma independiente, llegaron a la conclusión de que había una oscilación transitoria que se estaba muriendo con el tiempo. [4]
Hermann von Helmholtz en 1847 publicó su importante trabajo sobre la conservación de la energía [5], en parte de lo cual utilizó esos principios para explicar por qué la oscilación se extingue, que es la resistencia del circuito la que disipa la energía de la oscilación en cada sucesión. ciclo. Helmholtz también notó que había evidencia de oscilación de los experimentos de electrólisis de William Hyde Wollaston . Wollaston estaba intentando descomponer el agua mediante una descarga eléctrica, pero encontró que tanto el hidrógeno como el oxígeno estaban presentes en ambos electrodos. En la electrólisis normal se separarían, uno a cada electrodo. [6]
Helmholtz explicó por qué la oscilación decayó, pero no había explicado por qué ocurrió en primer lugar. Esto se dejó a Sir William Thomson (Lord Kelvin) quien, en 1853, postuló que había una inductancia presente en el circuito, así como la capacidad del recipiente y la resistencia de la carga. [7] Esto estableció la base física del fenómeno: la energía suministrada por la jarra se disipó parcialmente en la carga, pero también se almacenó parcialmente en el campo magnético del inductor. [8]
Hasta ahora, la investigación había sido sobre la frecuencia natural de la oscilación transitoria de un circuito resonante resultante de un estímulo repentino. Más importante desde el punto de vista de la teoría del filtro es el comportamiento de un circuito resonante cuando es impulsado por una señal de CA externa : hay un pico repentino en la respuesta del circuito cuando la frecuencia de la señal de activación está en la frecuencia resonante del circuito. [nota 2] James Clerk Maxwell escuchó sobre el fenómeno de Sir William Grove en 1868 en relación con experimentos en dinamos , [9] y también tuvo conocimiento del trabajo anterior de Henry Wilde en 1866. Maxwell explicó la resonancia [nota 3]Matemáticamente, con un conjunto de ecuaciones diferenciales, en casi los mismos términos que un circuito RLC se describe hoy. [1] [10] [11]
Heinrich Hertz (1887) demostró experimentalmente los fenómenos de resonancia [12] al construir dos circuitos resonantes, uno de los cuales era impulsado por un generador y el otro era sintonizable y solo estaba acoplado al primer electromagnéticamente (es decir, sin conexión de circuito). Hertz mostró que la respuesta del segundo circuito era máxima cuando estaba en sintonía con el primero. Los diagramas producidos por Hertz en este documento fueron los primeros gráficos publicados de una respuesta eléctrica resonante. [1] [13]
Resonancia acústica [ editar ]
Como se mencionó anteriormente, fue la resonancia acústica la que inspiró las aplicaciones de filtrado, siendo el primero de ellos un sistema de telégrafo conocido como el " telégrafo armónico ". Las versiones se deben a Elisha Gray , Alexander Graham Bell (1870), [1] Ernest Mercadier y otros. Su propósito era transmitir simultáneamente una serie de mensajes telegráficos a través de la misma línea y representa una forma temprana de multiplexación por división de frecuencia(FDM). FDM requiere que el extremo de envío esté transmitiendo a diferentes frecuencias para cada canal de comunicación individual. Esto requiere resonadores sintonizados individuales, así como filtros para separar las señales en el extremo receptor. El telégrafo armónico logró esto con cañas sintonizadas accionadas electromagnéticamente en el extremo transmisor que vibrarían cañas similares en el extremo receptor. Solo la caña con la misma frecuencia de resonancia que el transmisor vibraría en un grado apreciable en el extremo receptor. [14]
Por cierto, el telégrafo armónico sugirió directamente a Bell la idea del teléfono. Las cañas se pueden ver como transductores que convierten el sonido hacia y desde una señal eléctrica. No es un gran salto desde esta vista del telégrafo armónico a la idea de que el habla se puede convertir hacia y desde una señal eléctrica. [1] [14]
Multiplexación temprana [ editar ]
En la década de 1890, la resonancia eléctrica era mucho más conocida y se había convertido en una parte normal del conjunto de herramientas del ingeniero. En 1891, Hutin y Leblanc patentaron un esquema FDM para circuitos telefónicos utilizando filtros de circuito resonante. [16] Las patentes rivales fueron presentadas en 1892 por Michael Pupin y John Stone Stone con ideas similares, y finalmente la prioridad se otorgó a Pupin. Sin embargo, ningún esquema que utilice solo filtros de circuito resonante puede multiplexar con éxito (es decir, combinar) el ancho de banda más amplio de los canales telefónicos (a diferencia del telégrafo) sin una restricción inaceptable del ancho de banda de la voz o una separación de canales tan amplia como para que los beneficios de la multiplexación antieconómico [1] [17]
La razón técnica básica para esta dificultad es que la respuesta de frecuencia de un filtro simple se aproxima a una caída de 6 dB / octavalejos del punto de resonancia. Esto significa que si los canales telefónicos se comprimen uno al lado del otro en el espectro de frecuencias, habrá interferencia de los canales adyacentes en cualquier canal dado. Lo que se requiere es un filtro mucho más sofisticado que tenga una respuesta de frecuencia plana en la banda de paso requerida, como un circuito resonante de baja Q , pero que caiga rápidamente en respuesta (mucho más rápido que 6 dB / octava) en la transición de la banda de paso a la banda de parada como Un circuito resonante de alta Q. [nota 5]Obviamente, estos son requisitos contradictorios que deben cumplirse con un solo circuito resonante. La solución a estas necesidades se fundó en la teoría de las líneas de transmisión y, en consecuencia, los filtros necesarios no estuvieron disponibles hasta que esta teoría se desarrolló completamente. En esta etapa temprana, la idea del ancho de banda de la señal y, por lo tanto, la necesidad de que los filtros coincidan con ella, no se entendió completamente; de hecho, fue tan tarde como 1920 antes de que se estableciera completamente el concepto de ancho de banda. [18] Para la radio temprana, los conceptos de factor Q, selectividad y sintonización bastaron. Esto fue todo para cambiar con la teoría de las líneas de transmisión en desarrollo en la que se basan los filtros de imagen , como se explica en la siguiente sección. [1]
A principios de siglo, a medida que las líneas telefónicas estaban disponibles, se hizo popular agregar telégrafo a las líneas telefónicas con un circuito fantasma de retorno a tierra . [nota 6] Se requirió un filtro LC para evitar que se escuchen los clics telegráficos en la línea telefónica. A partir de la década de 1920, se utilizaron líneas telefónicas o líneas balanceadas dedicadas a este propósito para el telégrafo FDM en las frecuencias de audio. El primero de estos sistemas en el Reino Unido fue una instalación de Siemens y Halske entre Londres y Manchester. GEC y AT&TTambién tenía sistemas de FDM. Se utilizaron pares separados para las señales de envío y recepción. Los sistemas Siemens y GEC tenían seis canales de telégrafo en cada dirección, el sistema de AT&T tenía doce. Todos estos sistemas utilizaron osciladores electrónicos para generar una portadoradiferente para cada señal telegráfica y requirieron un banco de filtros de paso de banda para separar la señal multiplexada en el extremo receptor. [19]
Teoría de la línea de transmisión [ editar ]
El primer modelo de la línea de transmisión probablemente fue descrito por Georg Ohm (1827) quien estableció que la resistencia en un cable es proporcional a su longitud. [20] [nota 7] El modelo Ohm solo incluía resistencia. Latimer Clark notó que las señales se retrasaron y se alargaron a lo largo de un cable, una forma indeseable de distorsión que ahora se llama dispersión, pero luego se llama retardo, y Michael Faraday (1853) estableció que esto se debía a la capacidad presente en la línea de transmisión. [21] [nota 8]Lord Kelvin(1854) encontró la correcta descripción matemática necesaria en su trabajo sobre los primeros cables transatlánticos; llegó a una ecuación idéntica a la conducción de un pulso de calor a lo largo de una barra de metal. [22] Este modelo incorpora solo resistencia y capacitancia, pero eso es todo lo que se necesitaba en cables submarinos dominados por los efectos de capacitancia. El modelo de Kelvin predice un límite en la velocidad de señalización telegráfica de un cable, pero Kelvin aún no utilizó el concepto de ancho de banda, el límite se explicó por completo en términos de la dispersión de los símbolos telegráficos . [1] El modelo matemático de la línea de transmisión alcanzó su máximo desarrollo con Oliver Heaviside . Heaviside (1881) introdujo la inductancia en serie y la derivación.Conductancia en el modelo haciendo cuatro elementos distribuidos en total. Este modelo ahora se conoce como la ecuación del telegrafista y los elementos distribuidos se denominan constantes de línea primarias . [23]
A partir del trabajo de Heaviside (1887), quedó claro que el rendimiento de las líneas telegráficas, y especialmente las líneas telefónicas, podría mejorarse mediante la adición de la inductancia a la línea. [24]George Campbell en AT&T implementó esta idea (1899) insertando bobinas de carga a intervalos a lo largo de la línea. [25] Campbell descubrió que, además de las mejoras deseadas en las características de la línea en la banda de paso, también existía una frecuencia definida a partir de la cual las señales no podían transmitirse sin una gran atenuación . Esto fue el resultado de las bobinas de carga y la capacitancia de la línea que forman un filtro de paso bajo , un efecto que solo es evidente en las líneas que incorporanComponentes agrupados como las bobinas de carga. Esto naturalmente llevó a Campbell (1910) a producir un filtro con topología de escalera , basta con echar un vistazo al diagrama del circuito de este filtro para ver su relación con una línea de transmisión cargada. [26] El fenómeno de corte es un efecto secundario indeseable en lo que respecta a las líneas cargadas, pero para los filtros FDM de teléfono es precisamente lo que se requiere. Para esta aplicación, Campbell produjo filtros de paso de banda para la misma topología de escalera al reemplazar los inductores y capacitores con resonadores y antirresonadores respectivamente. [nota 9]Tanto la línea cargada como el FDM fueron de gran beneficio económico para AT&T y esto condujo a un rápido desarrollo del filtrado desde este punto en adelante. [27]
Filtros de imagen [ editar ]
Los filtros diseñados por Campbell [nota 10]fueron nombrados filtros de onda debido a su propiedad de pasar algunas ondas y rechazar fuertemente otras. El método por el cual fueron diseñados se llamó método de parámetros de imagen [nota 11] [29] [30] y los filtros diseñados para este método se llaman filtros de imagen. [nota 12] El método de imagen consiste esencialmente en desarrollar las constantes de transmisión de una cadena infinita de secciones de filtro idénticas y luego terminar el número finito deseado de secciones de filtro en la impedancia de imagen. Esto corresponde exactamente a la forma en que las propiedades de una longitud finita de la línea de transmisión se derivan de las propiedades teóricas de una línea infinita, correspondiendo la impedancia de la imagen a la impedancia característica de la línea. [31]
Desde 1920, John Carson , que también trabaja para AT&T, comenzó a desarrollar una nueva forma de ver las señales utilizando el cálculo operacional de Heaviside, que en esencia funciona en el dominio de la frecuencia . Esto le dio a los ingenieros de AT&T una nueva visión de la forma en que funcionaban sus filtros y llevó a Otto Zobel a inventar muchas formas mejoradas. Carson y Zobel demolieron constantemente muchas de las viejas ideas. Por ejemplo, los antiguos ingenieros de telégrafos pensaron que la señal era una frecuencia única y esta idea persistió en la era de la radio, y algunos todavía creen que la transmisión de modulación de frecuencia (FM) se podría lograr con un ancho de banda más pequeño que la banda base.Señal hasta la publicación del artículo 1922 de Carson. [32] Otro avance se refirió a la naturaleza del ruido, Carson y Zobel (1923) [33] trataron el ruido como un proceso aleatorio con un ancho de banda continuo, una idea que estaba muy por delante de su tiempo, y por lo tanto limitó la cantidad de ruido que producía. fue posible eliminar filtrando a esa parte del espectro de ruido que cayó fuera de la banda de paso. Esto tampoco fue generalmente aceptado al principio, en especial se opuso Edwin Armstrong (quien, irónicamente, logró reducir el ruido con FM de banda ancha ) y finalmente se resolvió con el trabajo de Harry Nyquist, cuya fórmula de potencia de ruido térmico es bien conocida. hoy. [34]
Otto Zobel hizo varias mejoras a los filtros de imagen y su teoría de operación . Zobel acuñó el término constante filtro k (o filtro de tipo k) para distinguir el filtro de Campbell de los tipos posteriores, en particular el filtro derivadode m de Zobel (o filtro de tipo m). Los problemas particulares que Zobel estaba tratando de resolver con estas nuevas formas fueron la adaptación de impedancia a las terminaciones finales y una mayor inclinación de la caída. Estos se lograron a costa de un aumento en la complejidad del circuito de filtro. [35] [36]
Un método más sistemático para producir filtros de imagen fue introducido por Hendrik Bode (1930), y desarrollado por varios otros investigadores, incluidos Piloty (1937-1939) y Wilhelm Cauer (1934-1937). En lugar de enumerar el comportamiento (función de transferencia, función de atenuación, función de retardo, etc.) de un circuito específico, se desarrolló un requisito para la impedancia de imagen en sí. La impedancia de la imagen se puede expresar en términos de las impedancias de circuito abierto y cortocircuito [nota 13] del filtro como. Ya que la impedancia de la imagen debe ser real en las bandas de paso y el imaginario en las bandas suprimidas según la teoría de la imagen, hay un requisito de que los polos y ceros de Z O y Z s cancelan en la banda de paso y se corresponden en la banda de rechazo. El comportamiento del filtro se puede definir completamente en términos de las posiciones en el plano complejoDe estos pares de polos y ceros. Cualquier circuito que tenga los polos y ceros requeridos también tendrá la respuesta requerida. Cauer siguió dos preguntas relacionadas que surgen de esta técnica: qué especificación de polos y ceros se puede realizar como filtros pasivos; y qué realizaciones son equivalentes entre sí. Los resultados de este trabajo llevaron a Cauer a desarrollar un nuevo enfoque, ahora llamado síntesis de red. [36] [37] [38]
Esta vista de "polos y ceros" del diseño del filtro fue particularmente útil cuando un banco de filtros, cada uno operando a diferentes frecuencias, están todos conectados a través de la misma línea de transmisión. El enfoque anterior fue incapaz de lidiar adecuadamente con esta situación, pero el enfoque de polos y ceros podría abarcarlo especificando una impedancia constante para el filtro combinado. Este problema se relacionó originalmente con la telefonía FDM, pero con frecuencia ahora surge en los filtros de cruce de altavoces . [37]
Filtros de síntesis de red [ editar ]
La esencia de la síntesis de la red es comenzar con una respuesta de filtro requerida y producir una red que ofrezca esa respuesta, o se aproxime a ella dentro de un límite específico. Este es el inverso del análisis de redque comienza con una red dada y al aplicar los diversos teoremas de circuitos eléctricos predice la respuesta de la red. [39] El término se usó por primera vez con este significado en la tesis doctoral de Yuk-Wing Lee (1930) y aparentemente surgió de una conversación con Vannevar Bush . [40]La ventaja de la síntesis de red sobre los métodos anteriores es que proporciona una solución que cumple con precisión la especificación de diseño. Este no es el caso de los filtros de imagen, se requiere un grado de experiencia en su diseño ya que el filtro de imagen solo cumple con la especificación de diseño en el caso poco realista de terminarse en su propia impedancia de imagen, para producir lo que requeriría el circuito exacto buscado . La síntesis de red, por otro lado, se encarga de las impedancias de terminación simplemente incorporándolas en la red que se está diseñando. [41]
El desarrollo del análisis de red debía realizarse antes de que fuera posible la síntesis de la red. Los teoremas de Gustav Kirchhoff y otros y las ideas de Charles Steinmetz ( fasores ) y Arthur Kennelly ( impedancia compleja ) [42] sentaron las bases. [43] El concepto de puerto también desempeñó un papel en el desarrollo de la teoría, y demostró ser una idea más útil que los terminales de red. [nota 1] [36] El primer hito en el camino hacia la síntesis de redes fue un importante artículo de Ronald M. Foster (1924), [44] El teorema de la reactancia, en la que Foster introduce la idea de una impedancia del punto de activación , es decir, la impedancia que está conectada al generador. La expresión para esta impedancia determina la respuesta del filtro y viceversa, y una realización del filtro se puede obtener mediante la expansión de esta expresión. No es posible realizar ninguna expresión de impedancia arbitraria como una red. El teorema de reactancia de Foster estipula condiciones necesarias y suficientes para la realización: que la reactancia debe aumentar algebraicamente con la frecuencia y los polos y ceros deben alternarse. [45] [46]
Wilhelm Cauer amplió el trabajo de Foster (1926) [47] y fue el primero en hablar de la realización de una impedancia de un puerto con una función de frecuencia prescrita. El trabajo de Foster consideró solo las reactancias (es decir, solo circuitos de tipo LC). Cauer generalizó esto a cualquier red de un solo puerto de 2 elementos, encontrando que había un isomorfismo entre ellos. También encontró realizaciones en escalera [nota 14] de la red usando Thomas Stieltjes'expansión de la fracción continua. Este trabajo fue la base sobre la cual se construyó la síntesis de la red, aunque el trabajo de Cauer no fue utilizado al principio por los ingenieros, en parte debido a la intervención de la Segunda Guerra Mundial, en parte por las razones explicadas en la siguiente sección y en parte porque Cauer presentó sus resultados usando Topologías que requerían inductores mutuamente acoplados y transformadores ideales. Los diseñadores tienden a evitar la complicación de las inductancias mutuas y los transformadores cuando sea posible, aunque los amplificadores de doble sintonizaciónacoplados por transformador son una forma común de ampliar el ancho de banda sin sacrificar la selectividad. [48] [49] [50]
Método de imagen versus síntesis [ editar ]
Los diseñadores de las imágenes siguieron utilizando los filtros de imagen mucho después de que las técnicas superiores de síntesis de red estuvieran disponibles. Parte de la razón de esto puede haber sido simplemente la inercia, pero se debió en gran parte a la mayor computación requerida para los filtros de síntesis de red, que a menudo necesitan un proceso iterativo matemático. Los filtros de imagen, en su forma más simple, consisten en una cadena de secciones repetidas e idénticas. El diseño puede mejorarse simplemente agregando más secciones y el cálculo requerido para producir la sección inicial está en el nivel de diseño de "parte posterior de un sobre". En el caso de los filtros de síntesis de red, por otro lado, el filtro está diseñado como una entidad única e integral y para agregar más secciones (es decir, aumentar el orden) [nota 15]el diseñador no tendría más remedio que volver al principio y comenzar de nuevo. Las ventajas de los diseños sintetizados son reales, pero no son abrumadoras en comparación con lo que podría lograr un diseñador de imágenes experto, y en muchos casos fue más rentable prescindir de los cálculos que consumen mucho tiempo. [51] Esto simplemente no es un problema con la disponibilidad moderna del poder de cómputo, pero en la década de 1950 era inexistente, en las décadas de 1960 y 1970 estaba disponible solo a un costo, y finalmente no estuvo disponible para todos los diseñadores hasta la década de 1980 con El advenimiento de la computadora de escritorio. Los filtros de imagen continuaron diseñándose hasta ese momento y muchos permanecieron en servicio hasta el siglo XXI. [52]
La dificultad computacional del método de síntesis de red se abordó mediante la tabulación de los valores de los componentes de un filtro prototipo y luego escalando la frecuencia y la impedancia y transformando la forma de banda en aquellas que realmente se requieren. Este tipo de enfoque, o similar, ya estaba en uso con los filtros de imagen, por ejemplo por Zobel, [35] pero el concepto de "filtro de referencia" se debe a Sidney Darlington . [53]Darlington (1939), [30] también fue el primero en tabular los valores de los filtros prototipo de síntesis de red, [54]sin embargo, tuvo que esperar hasta la década de 1950 antes de que el filtro elíptico Cauer-Darlington entrara en uso por primera vez. [55]
Una vez que la potencia computacional estaba disponible, fue posible diseñar filtros fácilmente para minimizar cualquier parámetro arbitrario, por ejemplo, el tiempo de retardo o la tolerancia a la variación de los componentes. Las dificultades del método de imagen fueron puestas firmemente en el pasado, e incluso la necesidad de prototipos se volvió en gran parte superflua. [56] [57] Además, el advenimiento de los filtros activosfacilitó la dificultad de cálculo porque las secciones podían aislarse y los procesos iterativos no eran generalmente necesarios. [51]
Realización y equivalencia [ editar ]
La realizabilidad (es decir, qué funciones se pueden realizar como redes de impedancia real) y la equivalencia (qué redes tienen equivalentemente la misma función) son dos cuestiones importantes en la síntesis de redes. Siguiendo una analogía con la mecánica lagrangiana , Cauer formó la ecuación matricial,
donde [ Z ], [ R ], [ L ] y [ D ] son los n x n matrices de, respectivamente, la impedancia , resistencia , inductanciay elastancia de un n - malla de red y s es la frecuencia compleja operador. Aquí [ R ], [ L ] y [ D ] tienen energías asociadas correspondientes a las energías de calor cinética, potencial y disipativa, respectivamente, en un sistema mecánico y los resultados ya conocidos de la mecánica podrían aplicarse aquí. Cauer determinó la impedancia del punto de activación mediante el método de los multiplicadores de Lagrange ;
donde a 11 es el complemento del elemento A 11 al que se va a conectar el puerto único. De la teoría de la estabilidad, Cauer descubrió que [ R ], [ L ] y [ D ] deben ser matrices definidas positivamente para que Z p ( s ) sean realizables si no se excluyen los transformadores ideales. La confiabilidad solo está restringida de otra manera por limitaciones prácticas en la topología. [39] Este trabajo también se debe en parte a Otto Brune (1931), quien trabajó con Cauer en los Estados Unidos antes de que Cauer regresara a Alemania. [49]Una condición bien conocida para la posibilidad de realizar una impedancia racional de un puerto [nota 16] debida a Cauer (1929) es que debe ser una función de s que sea analítica en el plano medio derecho (σ> 0), tenga una parte real positiva en el semiplano derecho y adquiera valores reales en el eje real. Esto se deduce de la representación integral de Poisson de estas funciones. Brune acuñó el término positivo-real para esta clase de función y demostró que era una condición necesaria y suficiente (Cauer solo había demostrado que era necesario) y extendió el trabajo a los multipuertos LC. Un teorema de Sidney Darlington establece que cualquier función positiva real Z ( s) puede realizarse como un puerto sin pérdidas terminado en una resistencia positiva R. No se necesitan resistencias dentro de la red para obtener la respuesta especificada. [49] [58] [59]
- dónde,
es invariante en Z p ( s ), es decir, todas las redes transformadas son equivalentes del original. [39]
Aproximación [ editar ]
El problema de aproximación en la síntesis de redes es encontrar funciones que produzcan redes realizables que se aproximen a una función de frecuencia prescrita dentro de los límites establecidos arbitrariamente. El problema de aproximación es un tema importante, ya que la función ideal de frecuencia requerida generalmente no será posible con redes racionales. Por ejemplo, a menudo se considera que la función prescrita ideal es la transmisión sin pérdida inalcanzable en la banda de paso, la atenuación infinita en la banda de parada y una transición vertical entre las dos. Sin embargo, la función ideal puede aproximarse con una función racional , acercándose cada vez más al ideal cuanto mayor sea el orden del polinomio. El primero en abordar este problema fue Stephen Butterworth (1930) utilizando suPolinomios de Butterworth . Independientemente, Cauer (1931) usó polinomios de Chebyshev , inicialmente aplicados a filtros de imágenes, y no a la ahora conocida realización de escalera de este filtro. [49] [60]
Filtro de Butterworth [ editar ]
Los filtros Butterworth son una clase importante [nota 15] de filtros debido a Stephen Butterworth (1930) [61] que ahora se reconoce como un caso especial de los filtros elípticos de Cauer . Butterworth descubrió este filtro independientemente del trabajo de Cauer y lo implementó en su versión con cada sección aislada de la siguiente con un amplificador de válvula que facilitó el cálculo de los valores de los componentes ya que las secciones del filtro no podían interactuar entre sí y cada sección representaba un término en el Polinomios de Butterworth. Esto le da a Butterworth el crédito de ser el primero en desviarse de la teoría de parámetros de imagen y el primero en diseñar filtros activos. Más tarde se demostró que los filtros Butterworth podrían implementarse en topología de escalera sin necesidad de amplificadores. Posiblemente el primero en hacerlo fue William Bennett (1932) [62] en una patente que presenta fórmulas para valores de componentes idénticos a los modernos. Sin embargo, en esta etapa, Bennett todavía está discutiendo el diseño como una línea de transmisión artificial y, por lo tanto, está adoptando un enfoque de parámetros de imagen a pesar de haber producido lo que ahora se consideraría un diseño de síntesis de red. Tampoco parece estar al tanto del trabajo de Butterworth o de la conexión entre ellos. [29] [63]
Método de pérdida de inserción [ editar ]
El método de diseño de la pérdida de inserción para diseñar filtros es, en esencia, prescribir una función deseada de frecuencia para el filtro como una atenuación de la señal cuando el filtro se inserta entre las terminaciones en relación con el nivel que se habría recibido si las terminaciones estuvieran conectadas. entre sí a través de un transformador ideal que los combina perfectamente. Las versiones de esta teoría se deben a Sidney Darlington., Wilhelm Cauer y otros, todos trabajando de forma más o menos independiente y, a menudo, se consideran sinónimo de síntesis de red. La implementación del filtro de Butterworth es, en esos términos, un filtro de pérdida por inserción, pero es relativamente trivial matemáticamente, ya que los amplificadores activos utilizados por Butterworth aseguraron que cada etapa trabajara individualmente en una carga resistiva. El filtro de Butterworth se convierte en un ejemplo no trivial cuando se implementa completamente con componentes pasivos. Un filtro incluso anterior que influyó en el método de pérdida de inserción fue el filtro de doble banda de Norton, donde la entrada de dos filtros está conectada en paralelo y diseñada para que la entrada combinada presente una resistencia constante. El método de diseño de Norton, junto con las redes canónicas LC de Cauer y Darlington ' El teorema de que solo se requerían componentes de LC en el cuerpo del filtro dio lugar al método de pérdida por inserción. Sin embargo, la topología de escalera demostró ser más práctica que las formas canónicas de Cauer.[64]
El método de inserción-pérdida de Darlington es una generalización del procedimiento utilizado por Norton. En el filtro de Norton se puede mostrar que cada filtro es equivalente a un filtro separado sin terminar en el extremo común. El método de Darlington se aplica al caso más directo y general de una red LC de 2 puertos terminada en ambos extremos. El procedimiento consta de los siguientes pasos:
- determinar los polos de la función de pérdida / inserción prescrita,
- A partir de eso encontramos la función de transmisión compleja,
- a partir de ese hallazgo los coeficientes de reflexión complejos en las resistencias de terminación,
- encuentre la impedancia del punto de conducción entre las impedancias de cortocircuito y circuito abierto, [nota 13]
- expandir la impedancia del punto de conducción en una red LC (generalmente escalera).
Darlington utiliza adicionalmente una transformación encontrado por Hendrik Bode que predice la respuesta de un filtro utilizando componentes no ideal, pero todos con el mismo Q . Darlington utilizó esta transformación a la inversa para producir filtros con una pérdida de inserción prescrita con componentes no ideales. Tales filtros tienen la respuesta ideal de inserción-pérdida más una atenuación plana en todas las frecuencias. [51] [65]
Filtros elípticos [ editar ]
Los filtros elípticos son filtros producidos por el método de pérdida-inserción que utilizan funciones racionales elípticas en su función de transferencia como una aproximación a la respuesta ideal del filtro y el resultado se llama una aproximación de Chebyshev. Esta es la misma técnica de aproximación de Chebyshev utilizada por Cauer en los filtros de imagen, pero sigue el método de diseño de pérdida-inserción de Darlington y utiliza funciones elípticas ligeramente diferentes. Cauer tuvo algún contacto con Darlington y Bell Labs antes de la Segunda Guerra Mundial (por un tiempo trabajó en los EE. UU.), Pero durante la guerra trabajaron de forma independiente, en algunos casos haciendo los mismos descubrimientos. Cauer había revelado la aproximación de Chebyshev a los laboratorios Bell, pero no los había dejado con la prueba. Sergei SchelkunoffProporcionó esto y una generalización a todos los problemas de ondulación iguales. Filtros elípticas son una clase general de filtro que incorporan varias otras clases importantes como casos especiales: filtro Cauer (igual ondulación en banda de paso y la banda de parada ), filtro de Chebyshev (ondulación sólo en la banda de paso), revertir filtro de Chebyshev (ondulación sólo en la banda de parada) y el filtro de Butterworth (No hay ondulación en ninguna banda). [64] [66]
En general, para los filtros de pérdida de inserción en los que los ceros de transmisión y las pérdidas infinitas se encuentran en el eje real del plano de frecuencia complejo (que generalmente corresponden al conteo mínimo de componentes), la función de pérdida de inserción se puede escribir como;
donde F es una función de frecuencia uniforme (que resulta en un filtro antimétrico ) o impar (que resulta en un filtro simétrico). Los ceros de F corresponden a una pérdida cero y los polos de F corresponden a ceros de transmisión. J establece la altura de ondulación de la banda de paso y la pérdida de la banda de parada, y estos dos requisitos de diseño pueden intercambiarse. Los ceros y polos de F y J se pueden establecer arbitrariamente. La naturaleza de F determina la clase del filtro;
- si F es una aproximación de Chebyshev, el resultado es un filtro de Chebyshev,
- si F es una aproximación máxima plana, el resultado es un filtro máximo plano de banda de paso,
- si 1 / F es una aproximación de Chebyshev, el resultado es un filtro de Chebyshev inverso,
- si 1 / F es una aproximación máxima plana, el resultado es un filtro plano máximo de banda de parada,
Es posible una respuesta de Chebyshev simultáneamente en la banda de paso y la banda de parada, como el filtro elíptico de igual ondulación de Cauer. [64]
Darlington relata lo que encontró en el artículo original de Carl Jacobi de la biblioteca de la ciudad de Nueva York sobre funciones elípticas, publicado en latín en 1829. En este documento, Darlington se sorprendió al encontrar tablas plegables de las exactas transformaciones de la función elíptica necesarias para las aproximaciones de Chebyshev de ambas Parámetro de imagen, y filtros de inserción-pérdida de Darlington. [51]
Otros métodos [ editar ]
Darlington considera que la topología de los circuitos sintonizados acoplados implica una técnica de aproximación separada al método de pérdida de inserción, pero también produce bandas de paso nominalmente planas y bandas de alto de atenuación. La topología más común para estos es anti-resonadores de derivación acoplados por condensadores en serie, menos comúnmente, por inductores, o en el caso de un filtro de dos secciones, por inductancia mutua. Estos son más útiles cuando el requisito de diseño no es demasiado estricto, es decir, ancho de banda moderado, roll-off y ripple passband. [57]
Otros desarrollos y aplicaciones notables [ editar ]
Filtros mecanicos [ editar ]
Edward Norton , alrededor de 1930, diseñó un filtro mecánico para su uso en grabadores y reproductores de fonógrafos . Norton diseñó el filtro en el dominio eléctrico y luego utilizó la correspondencia de cantidades mecánicas a cantidades eléctricas para realizar el filtro utilizando componentes mecánicos. La masa corresponde a la inductancia , la rigidez a la elastancia y la amortiguación a la resistencia . El filtro fue diseñado para tener una respuesta de frecuencia máxima plana . [59]
En los diseños modernos es común utilizar filtros de cristal decuarzo , especialmente para aplicaciones de filtrado de banda estrecha. La señal existe como una onda acústica mecánica mientras está en el cristal y es convertida por transductores entre los dominios eléctrico y mecánico en los terminales del cristal. [68]
Filtros de elementos distribuidos [ editar ]
Los filtros de elementos distribuidos están compuestos por longitudes de línea de transmisión que tienen al menos una fracción significativa de una longitud de onda larga. Los primeros filtros no eléctricos fueron todos de este tipo. William Herschel (1738–1822), por ejemplo, construyó un aparato con dos tubos de diferentes longitudes que atenuaban algunas frecuencias pero no otras. Joseph-Louis Lagrange (1736–1813) estudió las olas en una cuerda cargada periódicamente con pesas. El dispositivo nunca fue estudiado o utilizado como filtro por Lagrange o investigadores posteriores como Charles Godfrey. Sin embargo, Campbell utilizó los resultados de Godfrey por analogía.para calcular el número de bobinas de carga necesarias en sus líneas cargadas, el dispositivo que llevó a su desarrollo de filtro eléctrico. Lagrange, Godfrey y Campbell hicieron suposiciones simplificadoras en sus cálculos que ignoraban la naturaleza distribuida de sus aparatos. En consecuencia, sus modelos no mostraron las múltiples bandas de paso que son una característica de todos los filtros de elementos distribuidos. [69] Los primeros filtros eléctricos que fueron realmente diseñados por principios de elementos distribuidos se deben a Warren P. Mason a partir de 1927. [70]
Filtros transversales [ editar ]
Los filtros transversales no suelen asociarse con implementaciones pasivas, pero el concepto se puede encontrar en una patente de Wiener y Lee de 1935 que describe un filtro que consiste en una cascada de secciones de todos los pases . [71] Las salidas de las distintas secciones se suman en las proporciones necesarias para obtener la función de frecuencia requerida. Esto funciona según el principio de que ciertas frecuencias estarán en, o cerca de antifase, en diferentes secciones y tenderán a cancelarse cuando se agreguen. Estas son las frecuencias rechazadas por el filtro y pueden producir filtros con cortes muy marcados. Este enfoque no encontró aplicaciones inmediatas y no es común en los filtros pasivos. Sin embargo, el principio encuentra muchas aplicaciones como una implementación de línea de retardo activa para banda ancha.Aplicaciones de filtro de tiempo discreto como televisión, radar y transmisión de datos de alta velocidad. [72] [73]
Filtro emparejado [ editar ]
El propósito de los filtros combinados es maximizar la relación señal / ruido (S / N) a expensas de la forma del pulso. La forma del pulso, a diferencia de muchas otras aplicaciones, no es importante en el radar, mientras que S / N es la principal limitación en el rendimiento. Los filtros fueron introducidos durante la Segunda Guerra Mundial (descrito en 1943) [74] por Dwight North y a menudo se los denomina " filtros del Norte ". [72] [75]
Filtros para sistemas de control [ editar ]
Los sistemas de control tienen la necesidad de suavizar los filtros en sus bucles de retroalimentación con criterios para maximizar la velocidad de movimiento de un sistema mecánico hasta la marca prescrita y al mismo tiempo minimizar los movimientos de sobreimpulso y ruido inducido. Un problema clave aquí es la extracción de señales gaussianas de un fondo ruidoso. Norbert Wiener publicó un primer artículo sobre este tema durante la Segunda Guerra Mundial con la aplicación específica para computadoras analógicas antiaéreas para el control de incendios. Rudy Kalman ( filtro de Kalman ) más tarde reformuló esto en términos de suavización y predicción del espacio de estados, donde se conoce como el control lineal-cuadrático-gaussiano.problema. Kalman comenzó a interesarse por las soluciones en el espacio estatal, pero según Darlington, este enfoque también se puede encontrar en el trabajo de Heaviside y anteriores. [72]
La práctica moderna [ editar ]
Los filtros LC a bajas frecuencias se vuelven incómodos; Los componentes, especialmente los inductores, se vuelven caros, voluminosos, pesados y no ideales. Los inductores prácticos de 1 H requieren muchos giros en un núcleo de alta permeabilidad; ese material tendrá grandes pérdidas y problemas de estabilidad (por ejemplo, un gran coeficiente de temperatura). Para aplicaciones tales como filtros de red, se debe tolerar la incomodidad. Para aplicaciones de bajo nivel y baja frecuencia, los filtros RC son posibles, pero no pueden implementar filtros con polos complejos o ceros. Si la aplicación puede usar energía, entonces los amplificadores pueden usarse para hacer filtros RC activos que pueden tener polos y ceros complejos. En la década de 1950, los filtros RC activos de Sallen-Key se fabricaron con un tubo de vacío.amplificadores estos filtros reemplazaron los inductores voluminosos con tubos de vacío voluminosos y calientes. Los transistores ofrecían diseños de filtros activos más eficientes en el consumo de energía. Más tarde, los amplificadores operacionales de bajo costo permitieron otras topologías de diseño de filtro RC activo. Aunque los diseños de filtros activos eran comunes en las frecuencias bajas, no eran prácticos en las frecuencias altas donde los amplificadores no eran ideales; Los filtros LC (y la línea de transmisión) todavía se usaban en las radiofrecuencias.
No hay comentarios:
Publicar un comentario