Röhrentechnik
Themabewertung:
  • 2 Bewertung(en) - 5 im Durchschnitt
  • 1
  • 2
  • 3
  • 4
  • 5
richi44
Unregistered

 
#1
26.03.2009, 13:25

Historisches:
Der Ursprung war eine Kohlenfaden-Glühlampe. Nachdem die noch luftgefüllten Lampen keine 5 Minuten überlebten, begann man, die Luft heraus zu pumpen. Mit diesen ersten Dingern konnte man etwas beleuchten. Nur wurden die Glaskolben innen sehr bald schwarz, was darauf schliessen liess, dass irgendwelches Material vom Kohlefaden ausging.
Verschiedene Basteleien führten nach und nach zum Erfolg.
So wurde ein Blech in die Lampe montiert, in der Hoffnung, die Partikel würden sich dort niederschlagen. Dem war aber nicht so.
Das ganze war wie ein Warenhaus beim Schlussverkauf. Die Partikel verteilten sich im ganzen "Gebäude". Auch das Blech hatte keinen Einfluss. Erst als man das Blech mit einem Draht von aussen elektrisch zugänglich machte, begann es zu funktionieren.
Man stellte nämlich fest, dass das Blech leicht negativ geladen war und solange die Lampe brannte, diese negative Ladung immer wieder "nachgeliefert" wurde. Und weil man wusste, dass es Elektronen gibt und diese eine negative Ladung haben, konnte man sich vorstellen, dass der Glühfaden Elektronen aussendet.
Solange aber das Blech nicht mit dem Glühfaden verbunden war, war es wie beim Warenhaus, wenn der Eingang offen ist, wenn es aber keinen Ausgang gibt. Irgendwann war alles voller Elektronen und damit entstand eine negative Wolke, um nicht zu sagen ein Elektronengedränge, sodass keine weiteren Elektronen aus dem Glühfaden austreten konnten.

Jetzt hat man das Blech mit dem einen Ende des Glühfadens verbunden. Somit konnten die Elektronen über diesen "Ausgang" den Raum verlassen und machten damit neuen Elektronen Platz. Dass sie dabei wieder am Ort der Aussendung landeten, ist für die Elektronen unerheblich.

Leider war die "reinigende" Wirkung auf den Glaskolben noch nicht gross, denn nur die zufällig auf dem Blech gelandeten Elektronen (und mit ihnen die winzigen Kohlepartikel, die sie mit beförderten) wurden vom Glas ferngehalten. Und eine Glühlampe mit Metallgehäuse macht nicht viel Licht.

Der nächste Versuch war, die Elektronen an das Blech zu ziehen. Dies funktionierte in dem Moment, als man das Blech einer (gegenüber dem Glühfaden) positiven Spannung aussetzte. Diese positive Spannung zog nun (wie der Wühltisch) die Elektronen an. Und da man auch mal den Strom mass, der da floss, sah man, dass man je nach Spannung einen grösseren oder kleineren Strom bekam.

Jetzt war die Elektronenröhre geboren. Und folglich begann man, damit zu experimentieren. So baute man in dem "Warenhaus" nach dem Eingang (Katode) und dem Ausgang (Anode) ein Gitter mit veränderlichem Durchlass ein. Damit konnte man den Elektronenstrom zwischen Anode und Katode nicht nur durch die Höhe der Anodenspannung steuern, sondern auch durch die negative Spannung am Gitter.
Das muss man sich ungefähr so vorstellen: Die Gitterstäbe sind in einem Abstand, dass der grösste Teil der Elektronen sie passieren kann. Vereinzelte treffen auf die Gitterstäbe, aber für die meisten ist es kein Hindernis. Wenn man nun das Gitter negativ macht (gleichnamige Ladungen stossen sich ab und die Elektronen sind negativ), so wirkt es, wie wenn man die Gitterstäbe dicker machen würde. Der Durchfluss wird deutlich gebremst. Im Extremfall macht das Gitter "dicht", auch wenn eine positive Anodenspannung die Elektronen anzieht.
Dafür bildet sich an der Katode ein "Rückstau", also eine Elektronenwolke.
Mit dieser ersten steuerbaren Röhre wurden in der Telefonie (oder jedenfalls gab es so eine Idee) Relais verlustlos geschaltet. Es waren also eine Art "Relaisröhren". An einen Verstärkerbetrieb hat damals noch niemand gedacht.

An dieser Stelle gleich mal die ersten beiden Röhrentypen, die wir jetzt "kennen": Geheizte Katode (Glühfaden aus Wolfram = Wolframkatode) und Anodenblech = zwei Elektroden = Diode.
Geheizte Katode, Anode und Gitter = drei Elektroden = Triode.

Wir haben gesehen, dass sich der Strom durch die Triode einmal durch die Gitterspannung regulieren lässt, andererseits aber auch durch die Anodenspannung. Dieser Umstand setzte der "Relaisröhre" Grenzen. Wenn man mit einem normalen Relais durch einen Strom in der Spule einen Kontakt schliesst, so spielt es keine Rolle auf die nun magnetische Spule, wie gross die Spannung über dem geschlossenen Kontakt ist. Sie ist ohnehin null, wenn der Kontakt einwandfrei geschlossen ist. Und die treibende Spule und der geschlossene Kontakt haben elektrisch nichts miteinander zu tun.
Bei der Röhre ist das aber anders. Wenn die Röhre leitet, so tut sie das nur, wenn sie noch eine positive Anodenspannung hat. Das wirkt sich so aus, als ob man das Ding (das Telefonrelais), das mit der Röhre ein- und ausgeschaltet werden soll, über einen Widerstand an die Betriebsspannung anschliesst. Man braucht eine höhere Spannung, weil ja an diesem Widerstand (oder bei uns an der Röhre) ein Teil der Spannung bleibt (bleiben MUSS) und dieser Spannungsabfall ist zusätzlicher Leistungsverlust.

Der nächste Schritt war, eine Elektrode zu finden, welche diese Rückwirkung der Anode deutlich verminderte. Man baute ein zweites, recht weitmaschiges Gitter ein, das die Elektronen passieren mussten. Eine negative Spannung hätte die Elektronen vom Weiterflug abgehalten, darum hat man diese Schirmgitter an eine positive Spannung gelegt. Einerseits gab es nun Elektronen, die von den Gitterstäben, die auf ihrer Flugbahn waren, eingefangen wurden. Die meisten jedoch flogen dazwischen hindurch und worden dabei deutlich beschleunigt. Und solange Elektronen auf einer Elektrode landen, fliesst ein Strom.

Wenn wir also nochmals unser Warenhaus zu Hilfe nehmen, so werden die Kunden nach dem Eingang und nach dem Passieren des Steuergitters per Förderband weiter verfrachtet, egal, ob sie an dieses Ziel wollen oder nicht. Sie sind also per Förderband (Schirmgitter) in Richtung Ausgang (Anode) unterwegs.
Diese Röhre würden wir dank der 4 Elektroden Tetrode nennen.

Je nachdem, wie weit der Ausgang geöffnet war (entsprechend der Höhe der Anodenspannung) kam es aber am Ausgang (Anode) zu Rempeleien und es kam vor, dass mehr Kunden vom Ausgang zurück Richtung Innenraum "flüchteten", als die Zahl derer, die wirklich den Laden verliessen. Um einen Rückstau in dieser Region zu vermeiden, hat man eine Truppe eingesetzt, welche die Randalierer über einen gesonderten Weg zurück zum Eingang spedierten.
Oder auf die Röhre bezogen: Unter bestimmten Spannungsverhältnissen, wenn also die Anodenspannung klein ist gegenüber der Schirmgitterspannung, die Elektronen aber mit einer ordentlichen Kraft auf die Anode treffen, schlagen sie dort "Sekundärelektronen" heraus, welche vom Schirmgitter angezogen werden, weil dieses ja positiver ist als die Anode. Damit sinkt der Strom (in einem bestimmten Bereich) mit steigender Spannung, was einem negativen Widerstand entspricht.
Diese Funktion kann zu unerwünschten Wirkungen führen und ist im Normalfall zu unterbinden. Dafür wurde das dritte Gitter, das Bremsgitter eingesetzt. Dieses verhindert den Rückflug der Elektronen auf das Schirmgitter, weil es auf Null Volt liegt und damit eher abstossend wirkt, bezw. die Anode immer noch positiver ist.

In heutigen Röhren ist das erste Gitter das Steuergitter und von wenigen Ausnahmen abgesehen negativ gegenüber der Katode.
Da aber bei den ersten Röhren die Katodenemission noch sehr schwach war, versuchte man so viele Elektronen wie möglich aus der Katode zu ziehen. Dazu wurde ein zusätzliches, allererstes Gitter eingesetzt, das positiv vorgespannt war. Man nannte es Raumladegitter (oder Raumladungsgitter), weil es im Raum vor dem eigentlichen Steuergitter eine kräftigere Elektronenwolke erzeugte, als dies ohne dieses Gitter möglich gewesen wäre.

Im Bereich der Historie ist noch zu erwähnen, dass die Glühlampe als Röhren-Usrprung bald mit besseren Glühdrähten bestückt wurde, die mehr Lichtausbeute brachten, weil sie höhere Temperaturen ertrugen. Mit der höheren Temperatur stieg auch die Elektronen-Emission. So wurde mit dem Einsatz des Wolfram-Glühdrahtes eine verwertbare Emission erreicht. Die ersten Radioröhren waren noch mit derartigen Heiz-Emissionsdrähten ausgestattet.

Erste Weiterentwicklungen.

Bald genügte die Emissionsleistung der Wolfram-Drähte nicht mehr und man begann, andere Materialien einzusetzen. Ausserdem trennte man die Heizung von der Katode, weil man bei getrennten Elementen die Heizung an ein weitgehend beliebiges Potential legen konnte, während die Katode an Masse oder auch auf über 100V Spannung liegen konnte. Es war damit möglich, Geräte (die ersten Röhrenfernseher) zu entwickeln, die zur Röhrenheizung auf einen Trafo verzichten konnten.

Je nach Einsatzzweck wurden Röhren mit bis zu 7 Gittern entwickelt (EQ80).

Ausserdem wurden Röhren mit kleineren Bauformen gefertigt. Ebenso wurde damit die Anschlusstechnik weiter entwickelt. Und schliesslich wurde auch die Heizspannung den besonderen Bedürfnissen angepasst.

Nachdem eigentlich jeder Hersteller seine Röhren nach einem eigenen Code benannte, wurde in Westeuropa eine Bezeichnungsnorm eingeführt. Diese umfasste mindestens 2 Buchstaben und eine Zahl.
Bei Einführung der ersten Mehrfachröhren seit der Lancierung dieses Codes mussten mehr Buchstaben (bis 4) und mehr Zahlen verwendet werden. Die nachfolgende Tabelle gibt Aufschluss über die Bedeutung der wichtigeren Buchstaben und Zahlen.

Als Beispiel nehmen wir mal die EABC 80.

An erster Stelle steht die Heizung. Dabei bedeutet
A = 4V
C = 0,2A Serieheizung
D = 1,4V

E = 6,3V

G = 3,15V (GY501) oder 5V (GZ34)
H = 0,15A Serieheizung
K = 2V
P = 0,3A Serieheizung
U = 0,1A Serieheizung
V = 0,05A Serieheizung
X = 0,6A Serieheizung.

An zweiter (und folgenden) die Röhrenfunktion

A = Kleinsignal-Diode

B = Kleinsignal-Doppeldiode

C = Kleinsignal-Triode

D = Power-Triode
E = Tetrode oder Sekundär-Emissionsröhre
F = Kleinsignal-Pentode
H = Hexode oder Heptode (4 oder 5 Gitter)
K = Oktode
L = Power-Pentode (oder Beampower-Tetrode)
M = Magisches Auge / Anzeigeröhre
P = (mit Zusatz) Sekundär-Emissionsröhre
Q = Enneode (7 Gitter)
Y Power-Diode
Z = Power-Doppeldiode

Anschliessen die Zahlen. Diese deuten einerseits auf die Anschlussart hin (Sockeltyp), andererseits sind sie Laufnummern, wobei bisweilen die ungeraden Nummern auf Regelröhren hinweisen können.

1-9 einstellig= Stift- oder Topfsockel
10 ... = Schlüsselsockel 8 polig (Stifte sehen aus wie Fingerknochen)
20... = Loctal, entspricht weitgehend dem Oktalsockel, hat aber dünnere Stifte.
Lorenz hat Röhren mit diesem Sockel aber mit der Bezeichnung 71... gebaut (EM71)
30... = Oktalsockel 8 polig
40... = Rimlock 8 polig
50... Topfsockel 8 polig
500... Magnovalsockel 9 polig
60... = Subminiaturröhre, eingelötet
70... = Subminiaturröhre gesockelt, meist 8 polig

80... = Novalsockel 9 polig

90... = Miniatursockel 7 polig
200... = Decalsockel (wie Noval, nur 1 Stift mehr) 10 polig

Die EABC80 ist also eine Röhre mit Novalsockel, mit der Laufnummer NULL, mit 6,3V Heizung und umfasst eine Kleinsignaldiode, eine Kleinsignal-Doppeldiode und eine Kleinsignaltriode.

Nach diesen ersten Ausführungen noch einige mechanische Dinge.

Bei einer Röhre spielen vor allem mechanische Parameter eine wichtige Rolle.
Hier nochmals zurück auf das früher angesprochene Problem der Elektronen, die aus der Anode ausgeschlagen werden und bei tiefer Anodenspannung nicht mehr auf diese zurückfallen, sondern am Schirmgitter landen, das positiver ist als die Anode. Wir haben da gesehen dass das Bremsgitter als "Polizei" die fehlgeleiteten "randalierenden" Elektronen abfängt und zur Katode zurückbefördert.
Nun gibt es bei Power-Pentoden eine Möglichkeit, auf das Bremsgitter zu verzichten. Man kann nach dem Schirmgitter eine Art Tunnel bauen, durch den die Elektronen fliegen müssen, um zur Anode zu gelangen. Dieser Blechtunnel ist wie ein Bremsgitter mit der Katode verbunden. Durch die Bündelung des Elektronenstrahls werden die von der Anode stammenden (randalierenden) Elektronen voll dem Angriff der richtig geleiteten Elektronen ausgesetzt und durch diese quasi in die richtige Richtung geschubst. Und wer nicht will, landet in der Tunnelwand.
Diese Konstruktion nennt man Beampower-Tetrode. Sie hat zwar kein eigentliches Bremsgitter, aber die Funktion unterscheidet sich nicht von der Pentode. Darum ist das nicht mit einem eigenen Buchstaben gekennzeichnet und oftmals kaum in den Datenblättern angeführt.

Auf die Röhrenkurven möchte ich später eingehen, hier nur mal soviel: Die Steilheit der Ia/Ug-Kurve hat viel mit der Verstärkung zu tun. Pauschal kann man sagen, je steiler desto höher ist die Verstärkung. Im Lauf der Entwicklungszeit hat man festgestellt, dass die Steilheit zunimmt, wenn man das Steuergitter (1) so nahe wie möglich an die Katode bringt.
Ursprünglich waren die Gitter Gitter, später hat man Drähte um Stützholmen gewickelt, also ein leiterähnliches Ding gebaut. Das Problem solcher Gitter ist, dass sie stabil sein müssen, damit man sie nahe genug an die Kathode platzieren kann. Ausserdem dürfen die Gitterdrähte nicht schwingen, weil sie damit den Abstand zur Katode ändern, was die Verstärkung beeinflusst. Wäre dies der Fall, würde die Röhre „klingeln (Mikrofonie).
Aus diesem Grund wurden die Spanngitter entwickelt. Hier werden nicht einfach Holme bewickelt, sondern es wird ein stabiler Gitterrahmen gebaut, der mit extrem dünnem Draht starff gewickelt und verschweisst wird. Diese Gitterdrähte können kaum noch schwingen und verändern ihre Form auch nicht unter thermischen Einflüssen.

Nun könnte man annehmen, es gebe heute nur noch Spanngitterröhren. Das ist nicht der Fall. Denn das Spanngitter würde entweder veränderte Röhrendaten zur Folge haben, sodass ein Röhrenersatz nur nach Angleichung der Schaltung möglich wäre, oder bei gleichen Daten würden die Vorteile dieser Technik nichts bringen und nur der höhere Aufwand für die Herstellung würde sich im Preis niederschlagen.

Und hier gleich noch ein paar grundsätzliche Gegebenheiten:
Die heutigen Katoden sind in der Lage, hohe Ströme zu liefern. Nur darf man sie im Betrieb nie so stark belasten, dass alle Elektronen der Elektronenwolke (der "Vorrat" zwischen Katode und Steuergitter) "verbraten" werden. Der maximale Katodenstrom darf also höchstens während 0,1 Sekunden überschritten werden, wenn nachher genügend Zeit ist, die Elektronenwolke wieder aufzubauen.

Das Anodenblech und das Schirmgitter müssen einen Strom übernehmen und sind somit einer Leistung ausgesetzt, die sie als Wärme abstrahlen müssen. Wird diese Leistung überschritten, beginnen die Teile zu glühen, was erstens eine thermische Überlastung der ganzen Röhre zur Folge hat (ich habe schon Röhren gesehen, deren Glaskolben zu schmelzen begann), zweitens kommt es zu unkontrollierten Ausdehnungen der Elektroden und damit möglicherweise zu Kurzschlüssen und drittens können sich die mechanischen Abmesssungen und damit die Röhrendaten dauerhaft verändern.

Das Steuergitter ist aufgrund seiner feinen Konstruktion nicht in der Lage, irgendwelche Ströme (über etwa 10 Mikroampere) zu übernehmen. Schaltungen mit positivem Steuergitter beschädigen die Röhren in sehr kurzer Zeit. Ausnahmen sind spezielle Impulsröhren, die in Sperrschwingern eingesetzt werden. Aber dabei ist die Zeit des Gitterstroms sehr kurz und die Erholungszeit entsprechend lang.
Schauen wir uns mal die einfachen elektrischen Funktionen einer Röhre an.
Bei einer Röhre kann man den Stromfluss verändern. Dazu ändert man die Spannung am (ersten) Steuergitter. Je nachdem, wie stark negativ dieses Gitter gegenüber der Katode ist, werden mehr oder weniger Elektronen daran gehindert, dieses Gitter zu passieren und damit ändert sich der Anodenstrom.

   
Die Grafik zeigt die Spannung (U) und den Strom (I). Eingezeichnet sind zwei Widerstände, ein hochohmiger und ein niederohmiger.
Beim hochohmigen fliesst trotz hoher Spannung noch kein grosser Strom, beim niederohmigen haben wir einen wesentlich höheren Strom, trotz kleinerer Spannung. Wir könnten uns hier ein Potentiometer oder so einen alten Schiebewiderstand vorstellen. Wenn man diesen verstellt, so verändert man seinen Ohm-Wert.
Und weil man früher mit solchen Schiebewiderständen die Bühnenbeleuchtung des Theaters veränderte oder heute mit einem Potmeter den Dimmer bedient, so kann man sich vorstellen, dass diese Widerstand-Veränderung etwas nützliches bewirkt.

Und genau so kann man mit der Veränderung der Steuerspannung am Gitter den Strom durch die Röhre verändern. Aber jetzt kommt schon die erste Krux an der Sache.

   
Ich habe jetzt in dieser Grafik einfach mal eine Stromveränderung angenommen. Ich habe also auf der Vertikalen zwei Punkte festgelegt und durch diese bis zur Widerstandsgeraden (oder "schrägen") Linien gezogen. Man sieht, dass diese unterschiedlichen Strompunkte entsprechende Auswirkung auf die Spannung am Widerstand haben.

   
Jetzt schauen wir uns mal schnell diese Zeichnung an. Wir haben da eine Röhre mit einem Widerstand in der Anodenleitung. Und wir nehmen mal an, dass die Betriebsspannung vor dem Widerstand konstant 250V sei.

Wenn wir jetzt die Gitterspannung gegenüber der Katode verändern, so ändert sich der Strom durch die Röhre. Und wir nehmen mal an, die Änderung wäre so gross wie in der vorherigen Grafik. Und der Widerstand hier im Schaltbild entspreche jenem in der Grafik, also der "schrägen" Geraden.

Wir kennen das Ohmsche Gesetz und wissen, dass an dem Widerstand eine Spannung abfällt, wenn ein Strom fliesst. Und wir wissen auch, dass diese Spannung bei höherem Strom grösser wird.

Wenn aber die Betriebsspannung konstant ist und der Röhrenstrom sich ändert, so andert sich der Spannungsabfall am Widerstand. Und damit sinkt die Anodenspannung, wenn die Röhre so ausgesteuert wird, dass sie mehr Strom ziehen soll.

Weil aber die Röhre auch eine Art Widerstand ist, der grösser und kleiner werden kann (wie in der ersten Grafik), so verringert sich der Röhrenstrom in dem Moment, wo die Spannung über der Röhre kleiner wird. Wir können uns also vorstellen, dass, wie am eingezeichneten Widerstand der 2. Grafik, durch eine Verringerung der Spannung der Strom abnimmt und dies auch bei der Röhre der Fall ist.
Wenn wir also gesagt haben, wir könnten den Röhrenstrom durch die Gitterspannung verändern, so ist das zumindest für die Triode (die hier gezeichnete Röhre) nur die halbe Miete. Tatsächlich kann ich den Röhrenstrom auch verändern, indem ich die Anodenspannung verändere.

Das ist die besagte Krux. Und zwar ist es so, dass ich ja eine sich ändernde Anodenspannung brauche. Das ist nämlich das Tonsignal, das aus dem Ding raus kommen und in den Lautsprecher gelangen soll. Und das perfide daran ist, dass diese Spannungsänderung dem "Wirkmechanismus" genau entgegen läuft. Mache ich mehr Strom, nimmt die Spannung ab, was wieder den Strom reduziert.

Nachdem wir also mal die prinzipiellen Zusammenhänge zwischen Anodenspannung und Anodenstrom "angerissen" haben, machen wir das etwas konkreter.

Es gibt nämlich für diesen Zusammenhang einen Namen. Er nennt sich Durchgriff. Die Anodenspannung greift uns also in die Strombüchse und klaut da etwas. Aber mit diesem Begriff ist es wie mit vielen anderen (Dämpfungsfaktor zu Ri beim Verstärker). Hier wären kleine Werte gut. Aber gut ist doch, was gross ist. Darum hat man diesen Durchgriff umgedreht und ihn in der "Eins durch"-Funktion als Verstärkung Mü (das kleine griechische Zeichen) bezeichnet. Es ist natürlich nicht die tatsächliche Verstärkung der Röhre, sondern eine theoretische Angelegenheit. Aber immerhin...

In unserer Grafik haben wir einen Strom angenommen und eine Spannung. Und wir haben wie gesagt die "schräge" Widerstandsgerade eingetragen. Jetzt machen wir das mit der Funktion, welche die Röhre in Tat und Wahrheit darstellt.

   
Dies ist die Kurve einer ECC83, also DER Audiotriode schlechthin (es gibt noch bessere, aber was solls...)

Vergleicht man diese Kurven mit jenen eines hoch- oder niederohmigen Widerstandes, so sieht man, dass jene gerade verlaufen und nur in ihrer Steilheit unterschiedlich sind, während diese (mit Ausnahme der Kurve Vg=0V) relativ krumm sind. Und man sieht, dass bei einer Betriebsspannung von 250V (die wir ja bei unserer Zeichnung mal als Grundlage genommen haben) bei einer Gitterspannung von MINUS 3,5V KEIN Strom mehr fliesst. Bei 350V aber wäre ein Strom vorhanden. Und vor allem sehen wir, dass diese Rückwirkung krumm ist.
Nehmen wir statt des Durchgriffs die Bezeichnung Verstärkung, so bedeutet das, dass die Verstärkung der Röhre in Abhängigkeit der Spannung variiert. Ist die Spannung hoch, ist die Verstärkung relativ konstant (gerade), ist sie klein, wird die Kurve krumm.

Hier einfach zur Erinnerung: Gerade ist die Kurve eines Widerstandes, denn er erzeugt keine Verzerrungen. Ist eine Kurve aber irgendwie gekrümmt, ergibt das Verzerrungen.
Aus diesem können wir ableiten, dass der Durchgriff oder die Verstärkung Mü bei kleinen Strömen unlinear verläuft und zu Verzerrungen führt.
Wenn wir die Kurvenschar betrachten und jene für eine Gittervorspannung von -1V herauspicken, so sehen wir, dass der Durchgriff zwischen 250 und 150V den Klirr kaum verschlechtert, da diese im genannten Bereich beinahe linear ist. Das wäre also ein Bereich, in welchem man diese Röhre betreiben könnte.
Nur würde das bedeuten dass wir den Strom NUR durch die Anodenspannung steuern würden, was wir natürlich nicht tun.

Hier noch die Kurvenschar für eine Röhre mit sehr unterschiedlichem Kurvenverlauf.

   
Hier ist offensichtlich, dass die Steilheit der einzelnen Kurven variiert. Und wenn wir uns an die erste Grafik dieses Abschnitts erinnern, so bedeutet die unterschiedliche Steilheit dieser Kurven unterschiedliche Widerstände, den diese Röhre darstellt. Ihr Widerstand ist also wesentlich unkonstanter als jener der ECC83, bei welcher ja die Kennlinien zwischen 0V Gitterspannung und 2,5V Gitterspannung fast parallel verlaufen.
Wir werden später sehen, welche Auswirkungen diese Krümmung hat.
Ganz am Anfang haben wir eine Röhre mit dem Glühfaden und dem Blech gebaut, das die Elektronen eingefangen hat, also die Diode. Ein Strom kam zustande, wenn die Anode NICHT negativ geladen war, weil sie dann die Elektronen abgestossen hätte.
Wir haben gesehen, dass selbst bei Null Volt an der Anode ein Strom fliesst (ein kleiner), weil zufällig Elektronen dort gelandet sind.

Erinnern wir uns an die Grafik mit dem hochohmigen und niederohmigen Widerstand. Extrem hochohmig ist Unterbruch, extrem niederohmig ist Kurzschluss,

Machen wir die Anode der Diode negativ, so fliesst kein Strom, es herrscht Unterbruch (die Diode sperrt). Machen wir sie positiv, so leitet sie im Extremfall fast wie ein Kurzschluss.
Daher können wir eine solche Diode als Gleichrichter (oder Schalter in Abhängigkeit der Polarität) einsetzen. Es seien hier die PY88 (Schalterdiode im SW-Fernseher) oder die EZ81 (Doppeldiode als Netzgleichrichter in Radios und Verstärkern) wie auch die GZ34 genannt.

Jetzt machen wir wieder einen Sprung zurück zur ersten richtigen Kennlinienschar des letzten Kapitels. Hier hatten wir bei einer Gittervorspannung von -1V beinahe ideale Voraussetzungen, was die Linearität betrifft. Wir hätten da praktisch keine Verzerrungen zu erwarten, wenn die Anodenspannung zwischen 150V und 250V bleibt. Wir könnten also eine Anodenspannungs-Differenz von 100V (das ist dann die Spitzen-Spitzenspannung, die wir verarbeiten können, entsprechend dem 2,83fachen der Effektivspannung bei einem Sinus) klirrfrei (durch den Durchgriff) erzielen. Nehmen wir eine Verstärkung von 100 (das ist der theoretische Wert, den die Röhre erreicht, also das Mü), bräuchten wir am Gitter eine SS-Spannung von 1V. Wir würden uns also irgendwo zwischen -0,5V und -1,5V bewegen.
Und jetzt erinnern wir uns an die Diode: Diese zieht Strom, wenn die entsprechende Elektrode in die Nähe von null Volt kommt! Und -1V ist schon sehr dicht dran, da fliessen einige Mikroampère. Und bei -0,5V leitet die Elekotrode schon deutlich. Dass es sich bei uns nicht um die Anode, sondern das Gitter handelt, tut nur soviel zur Sache, dass der Eingangswiderstand dieser Röhre signal- und polaritätsabhängig ändert und somit die positiven Halbwellen einer Quelle stärker belastet werden als die negativen.

Die Schlussfolgerung ist, dass man die Gittervorspannung nicht beliebig festlegen kann, weil dies Rückwirkungen auf die vorherige Stufe hat.

An dieser Stelle eine Wiederholung: Ich habe gesagt, dass ein Steuergitter keinesfalls einer positiven Spannung ausgesetzt werden darf, da dies letztlich zur Zerstörung der Röhre führt, da das Gitter nicht für derartige Belastungen gebaut ist.

ES IST DAHER DRINGEND VOR SCHALTUNGEN ZU WARNEN (KOPFHÖRERVERSTÄRKER MIT 40V BETRIEBSSPANNUNG), WELCHE DAS GITTER AN EINE POSITIVE SPANNUNG LEGEN UND ES EINEM STROM VON ÜBER 1,5mA AUSSETZEN. ES IST ABER NICHT NUR DIE ZERSTÖRUNG DER RÖHRE, SONDERN AUCH DER EXORBITANTE KLIRR, DER DURCH DIE GLEICHRICHTERWIRKUNG DES GITTERS ENTSTEHT. WER SICH SOLCHE SCHALTUNGEN AUSDENKT UND SIE VERÖFFENTLICHT, HANDELT IM RÖHRENTECHNISCHEN SINNE GROBFAHRLÄSSIG!!!

Wir haben jetzt gesehen, dass wir in der Festlegung der Daten (bei der Triode) mit dem linearen Verhalten des Durchgriffs wie auch der Gleichrichterwirkung des Steuergitters eingeengt werden.
Wenn wir uns also das Datenblatt einer Röhre ansehen
( http://frank.pocnet.net/sheets/010/e/ECC83.pdf )
sind immer Vorschläge unterbreitet, wie wir sie am besten betreiben. Diese Vorschläge sind wohl durchdacht und nicht von einer Kartenlegerin vorhergesagt worden.

Aber zurück zu den Kennlinien. Unsere ECC83 hat noch mehr zu bieten. Und zwar die Ia/Ug-Kennlinie. Diese zeigt, was passiert, wenn wir die Gitterspannung ändern.

   
Hier haben wir 2 Kurven, eine für 250V Ua und eine für 100V Ua. Was tatsächlich raus kommt, wird irgendwo dazwischen schwanken, weil ja, wie in den ersten Kurven gesehen, die Anodenspannung der Tonmodulation folgt, also unkonstant ist

Nehmen wir mal den theoretischen Fall von 250V. Hier sieht man, dass diese Kurve irgendwo zwischen 0V und -1,8V gerade ist, bei noch höherer negativer Spannung wird die Kurve wieder krumm, also Klirr.

Eigentlich haben wir jetzt mal die wichtigsten beiden Kurven der Röhre schon angeschaut. Jetzt geht es noch um die Erklärung weiterer Begriffe, die mit der Röhre "verheiratet" sind.

Betrachten wir die Ia/Ug-Kennlinie, Variante 250V. Wir können eine vertikale Linie ziehen bei einer Ug von -0,5V. Und eine weitere Linie ziehen wir bei -1,5V. Die Kreuzungspunkte mit der Kurve ergeben den jeweiligen Anodenstrom. Das sind bei 0,5V 4,4mA, bei 1,5V 2,1mA. Wie früher mal erwähnt, hat die Steilheit dieser Kurve etwas mit der Verstärkung zu tun. Je steiler, desto grösser ist die Verstärkung.
Wenn wir auf dieser Kurve eine Differenz der Gitterspannung von 1V vornehmen (im linearen Bereich, also da, wo ich es erwähnt habe), so entsteht eine Stromänderung von 2,3mA. Die Steilheit der Röhre ist also 2,3mA / V. Dies gilt natürlich nur für die angegebenen Parameter, also Ua 250V und Ug –1V!

Und nochmals zurück zur Ia/Ua-Kennlinie (im vorherigen Kapitel). Nehmen wir hier die Kurve mit -1,5V Gittervorspannung.
Nehmen wir die Anodenspannung von 200V. Hier gibt es einen Kreuzungspunkt der Kurve mit der Vertikalen der Spannung und daraus lässt sich ein Strom von 1,2mA ablesen. Bei 250V Anodenspannung ist der Strom 2,1mA.
Wir haben also eine Spannung(sdifferenz) von 50V und eine Strom(differenz) von 0,9mA. Dies hätten wir auch, wenn wir einen Widerstand von 55,5k bei dieser Betriebsart einsetzen würden.

Wenn wir die konkreten Zahlen im Datenblatt ansehen, so sind sie etwas anders, denn dieser Widerstand würde resultieren, wenn wir eine deutlich höhere Betriebsspannung als die zugrundegelegten 250V hätten. Schliesslich bewegt sich die Anodenspannung in unserer Rechnung ja zwischen 200 und 250V. Und das ist mit dem nötigen Spannungsabfall am Anodenwiderstand nicht zu machen. Im Datenblatt wird dieser Widerstand, der sogenannte innere Widerstand Ri mit rund 62,5k bis 80k beziffert.

Nehmen wir nun mal die Werte aus der Datentabelle: Da ist der Ri wie gesagt 62,5k
Und die Steilheit (der Ia/Ug-Kennlinie) liegt bei 1,6mA/V (im Schnitt und bei den üblichen Betriebsbedingungen).
Mü, also der Verstärkungsfaktor, ist 100. Folglich ist der Durchgriff D (wie erwähnt 1: Verstärkungsfaktor) 0,01.
Einfach mal spasseshalber: Was gibt 62,5 mal 1,6 mal 0,01?
1
Und das hat mal ein Herr Barkhausen herausgefunden.
Das bedeutet, dass man eigentlich aus diesen Daten berechnen und abschätzen kann, was die Röhre leistet.

Man kann sich noch etwas weiter in dieses Datenblatt vertiefen. Da stellt man fest, dass die effektive Verstärkung immer kleiner als 100 (Verstärkungsfaktor Mü) ist. Es gibt da Schaltungsbeispiele für verschiedene Anodenwiderstände und unterschiedliche Betriebsspannungen.

Im Folgenden gehe ich nicht weiter auf die Herleitung ein. Es geht um die Berechnung der tatsächlichen Verstärkung. Diese erfolgt nach

Mü * Ra : (Ri + Ra), also beispielsweise 100 mal 220k : (62,5k + 220k) = 77,8

Ich habe hier einfach mal einen Anodenwiderstand von 220k angenommen, weil dieser schaltungs-typisch ist. Tatsächlich wird bei einer Triode erfahrungsgemäss mit einem Anodenwiderstand von 2 bis 3x Ri gerechnet.

Wenn man Schaltungen berechnen will, sind die angegebenen Daten natürlich für optimale Betriebsbedingungen zu beachten.
Noch wichtiger ist es diese zu berücksichtigen, wenn man Röhren tauschen will. Es ist eigentlich undenkbar, Röhren mit abweichenden Daten einzusetzen, ohne die Schaltung entsprechend anzupassen. Man kann dabei die Röhren beschädigen und wenn man beispielsweise die vorliegenden Daten mit jenen einer ECC82 oder ECC88 vergleicht, sieht man, dass beide nicht optimal mit diesen Bauteilwerten der ECC83 betrieben werden können. Man wird eine andere Verstärkung erhalten, was im besten Fall mehr Klirr ergibt, im schlechtesten Fall aber deutliche Frequenzgangfehler (Entzerrerverstärker) bis hin zu Röhren- und Bauteilbeschädigungen.[/php]

Die Pentode

Am Anfang habe ich erklärt, dass durch das Einfügen eines weiteren Gitters (Schirmgitter, g2) der Einfluss der Anodenspannung auf den Anodenstrom verringert werden konnte. Dazu nochmals die Grafik mit den Widerständen

   
Was wäre, wenn man einen Widerstand so bauen könnte, dass er eigentlich sehr hochohmig ist, also seine Gerade sehr flach verläuft, dass aber trotzdem ein höherer Strom möglich wäre? Das könnte dann etwa wie folgt aussehen:

   
Weil ja der Strom Null sein muss, wenn keine Spannung da ist, startet diese Kurve auch bei Null und steigt dann erst mal steil an. Dies wäre bei einem extrem kleinen Widerstand der Fall. Und damit kommen wir auch auf ein entsprechend hohes Stromniveau. Ab diesem Punkt wird die Kurve flach, was bedeutet, dass ab hier ein sehr grosser Widerstand die Wirkung übernimmt.
Mit normalen Bauteilen ist so etwas kaum zu machen, aber mit einer Röhre. Bei der Schirmgitterröhre (Pentode, Tetrode) braucht es eine minimale Spannung, bis der Anodenstrom erreicht wird, ab diesem Punkt hat die Spannung keinen entscheidenden Einfluss mehr, weil ja das Schirmgitter die Elektronen in Richtung Anode befördert.

Im Nachfolgenden arbeiten wir mit der EL84, also einer Leistungspentode.
( http://frank.pocnet.net/sheets/010/e/EL84.pdf )
(Ausser der geringeren Anoden- und Schirmgitterleistung gilt das Gesagte auch für Kleinsignalröhren, wie etwa die EF86)

Hier die Ia/Ug-Kennlinie der EL84

   
Gegenüber einer Kleinsignalröhre sind hier die Ströme und Gitterspannungen einfach rund 10 mal höher, der Rest bleibt sich wie erwähnt gleich. Man sieht, dass bei diesen Kurven ein Stromunterschied besteht in Abhängigkeit der Schirmgitterspannung (Kurven 1 und 2). Eine Abhängigkeit von der Anodenspannung ist kaum gegeben. Darum wird auf die Aufzeichnung verschiedener Kurven in Abhängigkeit von der Anodenspannung verzichtet.

Auf den ersten Blick fällt auf, dass die Kurven durchaus mit jenen der Triode vergleichbar sind. Sie sind im Bereich gegen Strom Null gekrümmt, ab etwa 20mA sind sie hingegen praktisch gerade. Das bedeutet, dass die Röhren bei kleinen Strömen verzerren, bei höheren Strömen jedoch fast klirrfrei arbeiten, also den Trioden entsprechend.

Die nächste Kurve ist die Ia/Ua-Kennlinie

   
Hier ist deutlich zu erkennen, dass die Kennlinienschar am Anfang relativ steil ansteigt und später recht flach verläuft. Dementsprechend wird der Ri der Röhre auch mit 38 bis 40k angegeben. Die Steilheit beträgt 10 bis 11,3mA/V.

Wenn wir nun den Herrn Barkhausen bemühen, so errechnen wir aus seiner Formel (S*D*Ri=1) ein D von (1: [S*Ri]) 0,00233 oder eine Verstärkung Mü von 429.
Das bedeutet (das, was wir auch sehen), dass die Anodenspannung wenig Einfluss auf den Anodenstrom hat. Nur müssen wir beachten, dass dies wie erwähnt nur für den flachenTeil der Kurve gilt.
Dies aber bedeutet, dass die Rückwirkung spannungsabhängig ist und somit ein erheblicher Klirr entstehen kann. Dies lässt sich vermeiden, indem man entweder eine Minimalspannung nicht unterschreitet oder das Schirmgitter in den "Rücksteuerungsprozess" mit einbindet, also teilweise an die Anodenspannung koppelt. Dann wird zwar die Rückwirkung deutlich stärker (es sinkt das Mü), aber die Kurven werden ausgeglichener.
Zitieren
richi44
Unregistered

 
#2
26.03.2009, 16:52

Die Regelröhre.

Sie ist eine Sonderform, was die Ia/Ug-Kennlinie betrifft.

   
Bei einer konventionellen Röhre versucht man, die Kurve möglichst linearzu gestalten. Der krumme Teil kurz nach dem Sperrbereich, also bei grosser -Ug, ist immer gekrümmt. Aber nachher sollte die Verstärkung möglichst gleichmässig sein, damit möglichst wenig Verzerrungen auftreten.

Bei der Regelröhre ist das anders. Im Gegensatz zur konventionellen Röhre wird hier das Steuergitter mit unterschiedlichen Drahtabständen gewickelt.
Gehen wir einfach mal davon aus, dass eine negative Gitterspannung um den Gitterdraht ein elektrisches Feld aufbaut, das die Elektronen am Passieren des Gitters hindern. Wir wählen mal eine beliebige Zahl von 0,1mm bei 1V negativer Spannung.
Wenn wir die Drahtabstände über das ganze Gitterkonstant halten, so bekommen wir je nach Drahtabstand und Spannung eine mehr oder weniger grosse Durchlässigkeit. Und weil dieses elektrische Feld eine konstante Wirkung hat, also die angenommenen 0,1mm /V, so kann man ausrechnen, ab welcher Spannung bei 0,3mm Drahtabstand die Röhe sperrt. Und man kann auch ausrechnen, wie hoch der Strom prozentual bei -1V oder -2V sein wird.
Wenn man aber die Abstände variiert, so kann es sein, dass die Elektronen am Rand der Röhre schon nicht mehr durchgelassen werden (enge Wicklung), während sie im Röhrenzentrum noch passieren können. Durch diesen Trick wird eine unterschiedliche Zahl an Elektronen durchgelassen, was nun nicht mehr linear, sondern irgendwie gekrümmt (exponential) vor sich geht.

Sicher ist, dass so eine Röhre deutlich klirrt. Würde sie mit Tonspannung erheblicher Grösse angesteuert, so entstände bei der Minus-Halbwelle eine deutlich geringere Stromänderung als bei der Plus-Halbwelle.
Nimmt man aber nur einen sehr kleinen Ausschnitt aus dieser Kurve, so ist diese kleine Strecke relativ linear.

Es gibt zwei Anwendungsfälle für solche Röhren: Einmal als Mikrofonverstärker mit automatischer Lautstärkeregelung. Da das Mikrofonsignal nur wenige Millivolt beträgt, die ganze Gitterspannung aber bis 20V betragen kann, wird immer nur ein winziger Teil der Kennlinie benützt. Man kann also davon ausgehen, dass dieser Abschnitt einen Klirr unter 1% zur Folge hat, während man die Verstärkung der Röhre um mindestens 1:10 variieren kann. Eine entsprechende Röhre ist die EF83.

Der zweite Anwendungsfall ist bei einem Radioempfänger. Hier muss versucht werden, das HF-Signal trotz unterschiedlicher Sendestärke am Demodulator konstant zu halten. Darum wird in so einem Gerät (in der ZF-Stufe) eine EF85 oder EF89 eingesetzt. Dass dabei die beiden Halbwellen des HF-Signals nicht gleich gross sind, stört zwar bei AM, also Mittelwelle, nicht aber bei FM, also UKW. Und bei AM stört es kaum, weil die Tonqualität ohnehin ungenügend ist. Da spielt das bisschen Klirr keine erhebliche Rolle mehr.


Das magische Auge, also die Anzeigeröhre.

Bei der Anzeigeröhre wird auf einem Leuchtschirm (Anode) ein Material aufgebracht, ähnlich jenem einer Bildröhre, das unter Elektronenbeschuss zu leuchten beginnt.
Meistens sind es Doppelröhren, also zwei Systeme in einem Glaskolben. Sie sind aber in der Regel so konstruiert, dass eine getrennte Verwendung der einzelnen Systeme nicht möglich ist.

Bei den Systemen handelt es sich um die eigentliche Anzeigeeinheit und um eine Triode.
Wie gesagt hat das Anzeigesystem einen Leuchtschirm, der als Anode dieser Einheit funktioniert. Das kann sogar ein leitender, durchsichtiger Belag auf dem Glaskolben sein (EM84) oder aber ein Blechteil, das mit dem Leuchtstoff belegt ist.
Logischerweise braucht man auch eine geheizte Katode. Und letztlich ist noch ein Steuersteg nötig. Dieser wirft einen Schatten auf den Leuchtschirm. Ist der Steuersteg mehr oder weniger auf Null Volt, so haben wir einen breiten dunkleren Bereich, ist der Steuersteg auf der selben Spannung wie die Anode (Leuchtschirm), so gibt es keinen Schatten mehr. Ist der Steuersteg positiver als derLeuchtschirm, so überlappen sich die beiden hellen Sektoren leicht und dieser Bereich wird noch heller. Dieser Umstand wurde bei Aussteueranzeigen bei Tonbandgeräten genutzt, um eine Übersteuerung anzuzeigen.

Da eigentlich die hohe, positive Steuerspannung etwas "unhandlich" ist, baut man in die Röhre noch eine Triode ein. An deren Gitter legt man z.B. die Regelspannung, die in der ZF-Stufe die Verstärkung der Regelröhre beeinflusst. Ist nämlich eine negative Spannung am Triodengitter vorhanden, so fliesst kein Strom in diesem System und somit gibt es keinen Spannungsabfall an ihrem Anodenwiderstand. Und da meistens der Steuersteg der Anzeigeeinheit mit der Trioden-Anode fest verbunden ist, hat dieser nun die volle Spannung.
Liegt kein Antennensignal am Radio an, gibt es auch keine Regelspannung und somit nichts am Triodengitter. Folglich leitet die Triode und damit sinkt die Anodenspannung stark ab. Dies bedeutet, dass der Elektronenstrahl der Anzeigeeinheit durch den Steuersteg einen maximal breiten Schatten wirft.

Der Vollständigkeit halber noch die paar wenigen Sonderformen:
Es gab eine amerikanische Anzeigeröhre, bei welcher die Triode gelegentlich als Tonverstärker genutzt wurde, weil es keine feste Verbindung zwischen Trioden-Anode und Steuersteg gab. Letzterer wurde vom Schirmgitter der Regelröhre im ZF-Teil des Radios mit angesteuert, weil sich die Spannung des Schirmgitters in Abhängigkeit der Regelspannung ändert.

Die übrigen Bauformen wie EM1, EM4, usw. sollen hier nicht gesondert erwähnt werden.

Eine weitere Bauform war die EMM801. Das sind zwei komplette Anzeigeröhren (Leuchtbalken), die bei Stereotonbandgeräten zum Einsatz kamen.

Die EM800 war eine Anzeigeröhre, die nicht ein symmetrisches Leuchtbild zeigte, sondern nur von der einen Seite her den Leuchtschirm bediente.

Und schliesslich noch die EMM803, die neben einer normalen Anzeige noch ein zweites, kleines Anzeigesystem besass, das als Stereo-Indikator verwendet wurde.

Für die Verwendung von Anzeigeröhren nimmt man am besten die jeweiligen Datenblätter zur Hand. Da sind eigentlich alle nötigen Hinweise und Anwendungen aufgelistet. Es würde eindeutig zu weit führen, wenn man dies alles hier bis ins Detail erörtern wollte.

Nachdem wir die Entwicklung der Röhre etwas verfolgt und in groben Zügen die ersten Kontakte mit ihren Möglichkeiten geknüpft haben, wollen wir uns jetzt etwas genauer mit den verschiedenen Kennlinien und deren Konsequenzen auseinander setzen. Und weil das aussieht wie Schnittmuster oder Landkarte nenne ich diesen Teil


Nochmals kurz zum Anfang:
Wir haben in einer Grafik die Zusammenhänge der Strom- und Spannungsverhältnisse an einem Widerstand angeschaut.

   
Und wir haben dabei Parallelen zu der Kurvenschar einer Röhre festgestellt.
Wir haben gesehen, dass bei steigender Spannung der Strom zunimmt.

   
Hier nun haben wir die Röhrenkurve und haben dieser eine andere Gerade eingezeichnet, die Arbeitsgerade (das, was der Anodenwiderstand „übrig lässt“). Diese verläuft genau umgekehrt als die bisherigen Widerstandsgeraden. Dieser rote Strich entspricht einem Anodenwiderstand von 220k.
Wenn wir eine Speisespannung von 250V annehmen, kann unsere Röhre im Maximum 1,136mA Strom ziehen (in der Zeichnung nicht genau nachzuvollziehen). Dann wäre die Anodenspannung NULL und wenn die Röhre keinen Strom zieht, ist die Anodenspannung gleich der Betriebsspannung, also 250V.
Aus dieser Kombination von Röhrenkurven und Arbeitsgeraden können wir also ablesen, wie hoch die Anodenspannung bei welcher Gitterspannung tatsächlich ist.

Wenn wir die frühere Ia/Ug-Kennlinie nehmen, sehen wir, dass der Strom viel höher war, als in unserer Schaltung.

   
In der schwarzen Kurve steigt der Strom bis 5,5mA an.
Wir haben hier aber noch eine rote Kurve und die roten Zahlen, die einen um Faktor 5 niedrigeren Strom darstellen.
Die rote Kurve haben wir aus der Ia/Ua-Kennlinie gewonnen, indem wir jeweils die Kreuzungspunkte der Gitterspannung und der Arbeitsgeraden verwendet haben. Je nach Gitterspannung ändert sich ja der Strom. Und mit grösser werdendem Strom (weniger negatives Gitter) steigt der Spannungsabfall am Anodenwiderstand und damit sinkt die tatsächliche Anodenspannung. Daher ist ja die Arbeitsgerade „umgekehrt“ eingezeichnet.

Wir sehen hier dass diese rote Kennlinie (die mit der Praxis überein stimmt, was bei der schwarzen nicht der Fall ist), wesentlich gerader verläuft, jeden Fall auf den ersten Blick. Wenn man diese Kurve aber vervollständigt, zeigt sich ein anderes, nicht unbedingt günstiges Bild.



   
Hier wurde eine minimale Gittervorspannung von minus 0,5V festgelegt, um nicht durch Gitterstrom das Tonsignal zusätzlich zu verzerren. Und weil der Bereich -3V bis zum Sperrbereich ebenfalls nicht ganz "geheuerlich" ist, haben wir auch zu diesem Punkt einen Abstand von 0,5V eingehalten.
Wir haben also eine maximal mögliche "positive" Aussteuerung bis -0,5V und eine maximal negative Aussteuerung bis -3V angenommen. Damit müssen wir die Gittervorspannung auf einen Wert von -1,75V festlegen, damit das Gitter bei einer sinusförmigen Ansteuerung die genannten Grenzpunkte nicht überschreitet.

Betrachten wir also diese Grafik, so sehen wir die rote Linie, die wir aus der Ia/Ua-Kennlinie mit hilfe der Arbeitsgeraden entwickelt haben. Weiter sehen wir die beiden grünen Grenzlinien, die wir mit der Aussteuerung nicht überschreiten wollen.
Als nächstes sehen wir den Minimal- und Maximalstrom, der durch die Röhre fliesst. Dieser ist der Kreuzungspunkt unserer Grenzlinien und der "Arbeitskurve" der Röhre. In unserem Fall ist also der Strom höchstens 0,79mA und mindestens 0,09mA. Wir haben folglich eine Stromänderung von 0,7mA bei einer Aussteuerung von total 2,5V.
Aus diesen Angaben liesse sich nun die Verstärkung berechnen. Sie müsste U=R*I 220k * 0,7mA = 154V Ausgangsspannung bei 2,5V Eingangsspannung = 61,6 fach sein.
Wenn wir im Datenblatt nachsehen, so ist dort eine Verstärkung von 66,5 angegeben. Das liegt sicher daran, dass man die Werte, die ich einfach aus einem Ausdruck einer Kopie eines Drucks eines Datenbalttes gewonnen habe, genauer bestimmen und nachmessen müsste.
Andererseits kommen wir bei unserer Rechnung auf eine Effektivspannung von rund 54V, während das Datenblatt nur von 28V Ausgangsspannung schreibt. Dies soll uns im Moment aber nicht stören.

Viel störender ist etwas anderes:
Wir haben ja in unsrer Kennliniengrafik noch einen Sinus eingezeichnet, der symmetrisch auf der Gitterspannung liegt, sein Nullpunkt bei der erwähnten Gittervorspannung von -1,75V, die Maxima bei -0,5 und -3V. Und wir sehen erst mal, dass die violette Linie vom Gitter her (eben die -1,75V) auf der Anodenstromseite bei leibe nicht auf dem halben Anodenstrom endet. Dieser Strom-Mittelwert wäre ja 0,44mA, wir haben aber nur 0,38mA. Da ist es leicht erkennbar, dass die positive und negative Halbwelle eines Sinus nicht gleich gross sind. Dies liegt einfach daran, dass erstens die schwarze Ia/Ug-Kurve nicht gerade ist (bei dieser ist ja der Anodenspannungs-Einfluss, also der Durchgriff noch aussen vor) und dass die rote Kurve auch nicht einem Lineal entspricht. Wir bekommen also ein Ausgangssignal, das nicht dem Eingangssignal entspricht, es ist verzerrt.

Ist die rote Kurve nur einfach gekrümmt, bekommen wir die erwähnte unterschiedliche Grösse der beiden Halbwellen. Wenn man diese Funktion "auseinandernimmt" sieht man, dass das Ergebnis eigentlich eine Überlagerung von 2 Frequenzen ist, nämlich die ursprüngliche und die doppelte. Wir bekommen also einen Klirrfaktor mit der doppelten Frequenz, sogenannten K2.

Ist die rote Kurve S-förmig, so werden die beiden Sinusspitzen abgeflacht. Dies kann mit einer generellen Unsymmetrie einher gehen, es muss aber nicht. Diese S-Form führt bei der Zerlegung (wie das gemacht wird, lassen wir hier mal weg, es wird sonst zu kompliziert) zu einer Klirrfrequenz von der dreifachen Grundfrequenz, also K3

Wenn die rote Kurve irgendwelche Schlangenlinien macht, also mehrmals die Steilheit ändert, so ergibt dies einen Klirr höherer Ordnung (K4, K5 usw.)

Im vorliegenden Fall sehen wir, dass hauptsächlich die Unsymmetrie auffällt und dass offensichtlich die negative Strom-Halbwelle um 0,06mA zu klein ist. Jetzt haben wir total 0,70mA Stromänderung, im Symmetriefall (also ohne Klirr) müssten es 0,82mA sein. Folglich bekommen wir so einen Klirr von rund 7,3% (0,06mA sind 7,3% von 0,82mA). Der höhere Klirr gegenüber den Angaben im Datenblatt sind sicher die Folge davon, dass wir auch eine höhere Ausgangsspannung erreicht haben. Ausserdem sind unsere "Berechnungen" grafisch erfolgt und somit sehr ungenau. Aber es geht ja in erster Linie darum, die Zusammenhänge aufzuzeigen.

An dieser Stelle noch ein paar Worte zum Klirr allgemein.
Wie erwähnt ist Klirr die Folge einer gekrümmten Kennlinie. Aus diesen Krümmungen entstehen neue Frequenzen. Ob diese störend sind, lässt sich anhand von Musik feststellen.

Bei einem Klavier haben wir bestimmte Tonabstände, alles in allem 12 Halbtöne innerhalb einer Oktave. Jeder Ton hat dabei seine bestimmte Frequenz. Das kleine a hat dabei eine Frequenz von 440 Hz.
Sicher ist, dass der Oktavabstand eine Verdoppelung oder Halbierung der Frequenz bedeutet. Ein K2 wäre demnach 880 Hz, was genau der Oktave entspricht.
Musikalisch kennt man neben der Oktave vor allem die Quint. Das ist ein Schritt von theoretisch 1,5 mal Grundwelle. Also wäre die Quint des kleinen a 660 Hz. Tatsächlich ist sie etwas tiefer gestimmt. Ihre Frequenz liegt bei 659,255114Hz Die Abweichung ergibt sich daraus, dass sich aus diesen 660Hz ja auch wieder und wieder die Quint bilden liesse und irgendwann wäre man wieder auf dem Ton a, gelandet. Nur wäre es nicht mehr ein Vielfaches von 440 Hz, weil schliesslich 2hoch 10 auch nicht tausend ergibt, sondern 1024
Eine Quint mit 660 Hz wäre rein gestimmt. Die Quint am Klavier ist aber temperiert gestimmt. Damit ergibt sich ein Unterschied, eine hörbare Schwebung.

Wir haben gesagt, K2 sei die Oktave und die ist problemlos. K3 wäre die Quint (richtigerweise die Oberquint, denn es handelt sich ja um die dreifache Frequenz, was das "3" nach dem K besagt). Wir hätten also bezogen auf die 440 Hz eine Frequenz von 1318,51Hz, temperiert gestimmt (Klavierton), beim Klirr aber die 1320Hz. Damit haben wir eine Schwebung von 1,5Hz.

K4 ist das Vierfache, also wieder eine Oktave, K5 wäre das fünffache, in unserem Fall also 2200 Hz. Dies entspricht einer der Terzen zu dem Grundton a. Allerdings gibt es hier zwei Probleme: Die Terz ist in der Durtonleiter 4 Halbtöne über dem Grundton (Grundton nicht mitgezählt), bei Moll nur 3 Halbtöne höher.
Zweitens wäre die Dur-Terz 2217,46105Hz. Wir haben also eine deutliche Fehlstimmung gegenüber dem K5.

Ein K2 bringt besonders bei tiefen Tönen die obere Oktav ins Spiel. Damit wird die Wiedergabe allgemein grundtöniger, was oft als warmer Klang bezeichnet wird. K3 bringt die Oberquint, die zwar nicht ganz stimmt, die Verstimmung ist aber nicht gravierend. Und die Oberquint ist bei Dur und Moll gleich. Sie bereichert etwas das Obertonspektrum und macht den Klang eher hell und spritzig.
K4 ist als Oktave kein Thema. Diese Frequenzen können noch einen gewissen Glanz hinzufügen, während K5 schon sehr verstimmt wirkt und das Klangbild damit undifferenziert macht, weil es klingt, wie wenn Amateure musizieren, die ihre Instrumente nicht gestimmt haben.

Um diesen Bereich Klirr abzuschliessen folgende Bemerkung: Klirr ist IMMER eine Verschlechterung, weil das Endergebnis nicht mehr dem Ursprungssignal entspricht. Es ist immer Verfälschung. Wenn jemand den grundtönigen Klang eines (schlechten) Röhrenverstärkers mag, so ist ihm dies unbenommen. Aber er hört die Musik nicht mehr so, wie sie Tonmeister und Dirigent zusammen entwickelt haben. Wenn es da dicklich sein soll, machen die zwei das und wenn ein schlankes Klanbild gewünscht ist, so verwirklichen sie auch dies. Alles, was darüber hinaus geht, ist laienhaftes "Ins Handwerk Pfuschen".

Nachdem wir die Kennlinien der Kleinsignal-Triode abgehandelt haben, wollen wir uns noch etwas diejenigen der Kleinsignal-Pentode ansehen (die Ia/Ug-Kennlinie entstammt der EL84, weil bei der Kleinsignalröhre EF86 nicht alle Angaben auf der Kennlinie zu finden sind).

   
Bei der Triode kann man davon ausgehen, dass Der Anodenstrom gleich dem Katodenstrom ist, weil es ja nichts gibt, das sonst noch Strom zieht (solange das Steuergitter nicht positiv ist!).
Bei der Pentode ist das anders. Eigentlich interessiert uns der Anodenstrom, weil ja dieser die "Musik" macht. Allerdings gibt es auch den Schirmgitterstrom und der Kathdenstrom muss sich logischerweise aus Ia plus Ig2 zusammensetzen.
In der obigen Kurve sieht man, dass die Ia/Ug-Kennlinie recht gerade ist, die Schirmgitterkennlinie aber leicht gekrümmt. Das bedeutet, dass der Katodenstrom als Summe der beiden dargestellten Ströme auch eine leicht gekrümmte Charakteristik aufweisen wird. Dies hat Auswirkungen auf die Gegenkopplung, auf die wir später zu sprechen kommen.

   
Dies ist die Ia/Ua-Kennlinie der Kleinsignalpentode EF86. Wir sehen hier, dass die Kurven sehr flach verlaufen.
Erinnern wir uns an die Barkhausensche Röhrenformel: S*D*Ri = 1
D ist der Durchgriff, also die Wirkung der Anodenspannung auf die Verstärkung. Weil bei einer Triode dieser Einfluss recht gross ist, ist ihre tatsächliche Verstärkung wesentlich kleiner als die theoretische Verstärkung Mü.

Zurück zur Formel. Die Steilheit S kann bei Trioden und Pentode gleich sein. Der Durchgriff ist bei einer Triode aber viel grösser. Also muss damit bei der Triode der Ri entsprechend kleiner sein (sonst wird das nix mit dem Ergebnis 1). Und wenn wir uns ganz an den Anfang zurückerinnern: Ein grosser Widerstand ergibt eine flache Kurve, ein kleiner eine steile. Hier haben wir extrem flache Kurven, also einen sehr hohen inneren Widerstand der Röhre. Und damit eine geringe Rückwirkung.

Bei der Triode haben wir die Verstärkung nach der Formel V= Mü*Ra : (Ri+Ra) berechnet. Das ergab für die ECC83 folgende Rechnung:
Mü = 100, Ri = 62,5k, S = 1,6mA/V, D = (1:Mü ) 0,01, Ra = 220k
ergibt 100 * 220k : (62,5k + 220k) = 77,87
Wir sind also mit der tatsächlichen (berechneten) Verstärkung gut 22% tiefer als die maximaletheoretische Verstärkung wäre.

Rechnen wir das für die EF86, so sind die Daten:
Ri = 2,5M, S = 2,2mA/V, Ra = 220k.
Eigentlich fehlt uns D, aber den können wir uns ja mit der Röhrenformel ausrechnen. D= 1 : (S*Ri)
Und weil wir eigentlich nicht D sondern Mü möchten, und dieses 1 : D ist, so können wir in der Verstärkungsformel folgendes einsetzen (Mü wäre übrigens 5500):
V=S*Ri*RaSadRi+Ra) = 444,85.

Wir könnten natürlich auch wie seinerzeit in den Trioden-Kennlinien den Einluss der Anodenspannung auf den Strom aus der Ia/Ua-Kennlinie mit Hilfe des eingezeichneten Widerstandes eintragen und wie dort eine Gitterwechselspannung aufzeichnen und aus der neuen Arbeitskennlinie den tatsächlichen Strom ablesen. Diesen müssten wir mit dem Arbeitswiderstand multiplizieren und durch die Gitterspannung teilen. Dann hätten wir die Verstärkung. Oder anders gesagt: Bei der Triode mit der starken Rückwirkung müssen wir den Durchgriff einrechnen und so eine neue Arbeitskennlinie erstellen. Dann können wir die Steilheit in mA/V dieser Arbeitskennlinie mit dem Arbeitswiderstand multiplizieren und erhalten eine Ausgangsspannung. Und da die Steilheit in mA/V angegeben ist, entspricht die Ausgangsspannung auch der Verstärkung.

Da bei der Pentode der Durchgriff sehr klein ist ist der Einfluss der Anodenspannung sehr gering. Somit entspricht die Arbeitskennlinie fast der reinen Ia/Ug-Kennlinie. Somit können wir die Steilheit dieser Kurve (2,2mA/V) mit Ra multiplizieren. Wir liegen hier im Bereich um 10% neben der tatsächlichen Verstärkung, was durchaus vertretbar ist.

Wem die obige Rechnerei etwas zu abstrakt ist, der soll sich an die Angaben in den Datenblättern halten, da sind die Schaltungen aufgezeichnet und die entsprechenden Ergebnisse aufgelistet, siehe Beispiele:

   
   
In diesen Zeichnungen ist jeweils alles enthalten, was man zur Konstruktion einer einfachen Verstärkerstufe wissen muss.
Bevor wir zur "Königsdisziplin" (den Endstufen) kommen, noch die Gittervorspannung.
Wie bereits erwähnt und anhand der Kennlinien auch aufgezeigt, muss das Steuergitter einer Röhre an einem negativen Potenzial liegen. Wie gross diese negative Spannung sein soll, hängt von der Röhre (Datenblatt) und ihrem Einsatz ab.

Es gibt die Hauptmöglichkeit der Gittervorspannungserzeugung durch einen Kathodenwiderstand. Im letzten Schaltbild ist so eine Stufe gezeigt. Das Steuergitter ist mit einem Widerstand von 1M gegen Masse geführt, hat also Null Volt gegen Masse. Die Katode ist mit einem Widerstand an Masse gelegt (Rk), an welchem durch den Katodenstrom (bei der Triode gleich dem Anodenstrom) eine Spannung abfällt und damit die Katode auf ein leichtes Pluspotenzial gegen Masse anhebt. Damit ist das Gitter negativer als die Katode und wir haben das erreicht, was wir bezwecken wollten.
Hier haben wir eine Tabelle mit unterschiedlichen Betriebsspannungen (und im Datenblatt noch weitere Tabellen mit zusätzlich unterschiedlichen Anodenwiderständen) und den zugehörigen Katodenwiderständen.
Wenn wir das frühere Beispiel (mit dem eingezeichneten Sinus) nochmals bemühen, so sehen wir, dass wir dort eine Gittervorspannung von 1,75V verlangten und dabei ein Strom von 0,38mA in der Anode floss. Folglich könnten wir diesen Widerstand auch selbst berechnen, der dazu nötig ist. Rk = Uk : Ik, = 1,75 : 0,38 = 4,6k

Tatsache ist, dass dieser (zu grosse) Wert nicht den üblichen Werten entspricht, weil wir bei der Umzeichnerei der Kennlinien irgendwo etwas "gepfuscht" haben. Prinzipiell funktioniert die Berechnung aber so. Wir müssen wissen, wie hoch die Gittervorspannung sein soll und wir müssen wissen, wie hoch dabei der Katodenstrom ist.

Wenn wir nur einen Widerstand allein verwenden, so ist dies bei Trioden möglich, um nicht zu sagen üblich.
Bei einer Pentode wird aber praktisch immer ein Elko parallel zum Katodenwiderstand geschaltet (hier auch bei der Triode), damit zwar die Gleichspannung entsteht, aber keine Wechselspannung. Ik ist ja wie bereits erwähnt nicht nur Ia, sondern auch Ig2. Und da dieser Strom Ig2 nicht ganz linear ist, würde die entstehende Wechselspannung an der Katode zusätzliche Verzerrungen hervorrufen.

Der Vorteil dieser Technik mit dem Katodenwiderstand ist, dass bei Röhrenalterung (entsprechend weniger Katodenstrom) die Gitterspannung abnimmt und damit der ursprüngliche Strom wieder einigermassen erreicht wird. Der Arbeitspunkt der Röhre ist damit soweit stabilisiert, dass die Röhre bei 70% Rest-Lebensdauer fast 100% funktionsfähig ist. Erst bei einem Verschleiss von 70% werden die Resultate (Verstärkung, Klirr) deutlich schlechter.
Ausserdem kann man mit einer einfachen, kurzen Messung der Spannungen (Anodenspannung und Katodenspannung) die restliche Lebensdauer der Röhre in etwa abschätzen. Ist Uk 10% kleiner und Ua 10% grösser als üblich, ist der Strom um 10% gesunken, was unter Berücksichtigung des Durchgriffs (Stromabhängigkeit von der Anodenspannung) eine Rest-Funktionsfähigkeit von etwa 80% ergibt. Wenn die Werte um mehr als 15% abweichen, sollte die Schaltung durchgemessen werden und zwar mit den alten Röhren, wie auch mit neuen Röhren. Daraus lässt sich ableiten, ob die tatsächlichen Verstärkerfunktionen soweit gelitten haben, dass ein Ersatz lohnenswert ist. Generell kann man aber sagen, dass Kleinsignalröhren oft Jahrzehnte ohne Nennenswete Einbussen funktionieren können. Diese Art der Gittervorspannungserzeugung nennt man AUTOMATISCH.


Diese Art der Gittervorspannungserzeugung bei Kleinsignalröhren ist aber nicht die einzige Möglichkeit. Dazu noch kurz eine Überlegung:
Wozu ist der Gitterableitwiderstand da, also das Ding, das vom Gitter gegen Masse geht? Ganz am Anfang hatten wir es mit der Kohlenfadenlampe zu tun. Und wir haben gesehen, dass Elektronen aus dem Material (später bei der Wolframkatode) heraus "quellen". Diese treffen das Blech (oder hier das Gitter) und laden dieses negativ auf. Und das geht beim Gitter soweit, dass diese negative Ladung jeden weiteren Elektronen-Durchgang "verstopft".

Nun kann man das verhindern, indem man die hängen gebliebenen Elektronen über einen Widerstand gegen Masse "entsorgt". Macht man diesen Widerstand statt der üblichen 1M grösser, nämlich 10M, so werden zwar Elektronen abgeleitet, aber nicht alle. Es stellt sich irgend ein Mittelwert ein, bei welchem ein Teil der Elektronen passieren können und somit einen Anodenstrom ermöglichen, während ein Teil auf dem Gitter verbleibt. Wäre das Gitter zu negativ, würden alle weiteren Elektronen daran gehindert, das Gitter zu erreichen, weil sie abgestossen werden. Damit nimmt die Anzahl Elektronen auf dem Gitter über den 10M Widerstand ab und die Sache beginnt wieder zu leiten.

Bei dieser Schaltung liegt die Kathode direkt an Masse. Dies hat einen Vorteil: Wenn man beispielsweise eine Röhre EABC80 hat, die neben der Triode © noch einen Kleinsignal-Zweiweggleichrichter (B) und einen Einweggleichrichter (A) hat, braucht es total nur die 9 Anschlüsse, die man am Novalsockel zur Verfügung hat. Dies, weil die Trioden-Katode mit der Zweiweg-Katode verbunden ist.

   
Die Dioden sind für den FM- und AM-Gleichrichter des Radios zuständig und dabei sind zwei Dioden-Katoden an Masse. Man kann also die Triodenkatode nicht hochlegen, ohne dass die ganze Schaltung sehr kompliziert würde.

Eine weitere Möglichkeit, die aber heute nicht mehr genutzt wird, ist die Gittervorspannungsbatterie. Dabei wurde eine Knopfzelle auf Quecksilberbasis verwendet. Und weil ja kein Strom fliesst, hält diese Batterie fast ewig. Voraussetzung war, dass alle Röhren die selbe Gittervorspannung benötigten. Man war demnach mit der Röhrenwahl stark eingeschränkt.

Etwas ähnliches kennt man heute bei Leistungsstufen, bei welchen die Gittervorspannungen mit separaten Gleichrichtern im Netzteil erzeugt werden.

Ausserdem gab es noch die halbautomatische Gittervorspannung für die Endröhren. Diese beiden Funktionen werden aber bei der Endstufenschaltung gesondert behandelt.


An dieser Stelle nochmals ein Blick auf die Pentode.
Die Gittervorspannung unterscheidet sich höchstens dadurch, dass ein Elko über dem Katodenwiderstand sehr vorteilhaft ist, wie bereits erwähnt wurde.

Unterschiedlich ist, dass wir nicht nur ein Gitter haben, sondern 3. Gitter 3 ist entweder schon intern auf das Katodenpotenzial gelegt oder es wird mit seinem Anschluss extern verbunden.
Gitter 2 jedoch liegt an einer positiven Spannung. Normalerweise geschieht dies über einen Widerstand, denn wenn die Anodenspannung (an einem normalen Anodenwiderstand) durch höheren Strom abnimmt, so steigt auch der Schirmgitterstrom und damit ist es vorteilhaft, dass dann auch die Schirmgitterspannung nachfolgt. Bei extremen Missverhältnissen zwischen Anoden- und Schirmgitterspannung (Schirmgitter deutlich positiver als Anode) kann das Bremsgitter nicht mehr richtig wirken und die Röhrenkennlinie (Ia/Ua) bekommt einen Knick. Dadurch entstehen zusätzliche Verzerrungen oder die Schaltung könnte schwingen. Die Röhre verhält sich fast wie eine Tetrode. Ausserdem steigt der Schirmgitterstrom überproporzional an, wenn Uadeutlich geringer ist als Ug2.
Die Spannungsversorgung über einen Widerstand wirkt ähnlich ausgleichend wie die Gittervorspannungserzeugung mit dem Katodenwiderstand. Auch wenn die Röhre durch Alterung schlechter wird, bleiben die Kennwerte noch so, dass sie ohne Schwingneigung weiter betrieben werden kann. Würde man dies nicht in dieser Form tun, müsste man dauernd das Gerät durchmessen und neu abgleichen.
Zitieren
richi44
Unregistered

 
#3
10.08.2009, 10:01

Nun wirds langsam spannend...
    Und gleich noch etwas:
Die Kleinsignalröhren (oder besser Röhren für kleine Leistungen) werden normalerweise mit einem ohmschen Anodenwiderstand betrieben. Endröhren jedoch immer mit einem Ausgangstrafo, sofern nicht besondere Schaltungen diesen überflüssig machen. Der Grund ist einleuchtend. Ohne Trafo fliesst der Strom durch diesen Widerstand. Damit entsteht ein Spannungsabfall. Man braucht also beispielsweise 600V Betriebsspannung, damit im Ruhefall an der Anode 300V liegen. Die resttlichen 300V werden am Widerstand verheizt. Dies ist Verschwendung.
Weiter ist die Schaltung auf eine bestimmte Last ausgelegt. Diese wird aber eigentlich schon durch den Widerstand gebildet, sodass keine Leistung für einen Lautsprecher übrig wäre.
Und es gibt noch einen Grund: Der Ausgangstrafo stellt für Wechselspannung einen hohen Widerstand dar. Dieser wird für die Röhre kaum wirksam, weil der Lautsprecherwiderstand durch den Trafo angepasst wird und viel kleiner ist als die Trafo-Leerlaufimpedanz. Das hört sich jetzt etwas verworren an, aber machen wir ein kleines Beispiel.
Der Drahtwiderstand des Trafos beträgt 50 Ohm. Der Röhren-Ruhestrom liegt bei 50mA. Folglich fällt am Trafo eine Spannung von 2,5V ab. Wenn wir also eine Betriebsspannung von 300V haben, so ist die Anodenspannung 297,5V.
Hätte der Trafo eine Induktivität von 120H, so wäre seine Impedanz bei 20Hz rund 15k. Die optimale Last für die Röhre ist aber bei 5,2k. Dass die Last diesem Wert entspricht, erreicht man mit dem richtigen Übersetzungsverhältnis.
Wollte man das ganze irgendwie mit einem normalen Widerstand erreichen, müsste der Widerstand auch die 15k haben, damit er gleich wenig beeinflusst. Damit aber die Anodenspannung noch stimmen würde, müsste die Betriebsspannung 1050V sein. 750V mit 50mA würden am Widerstand verheizt, und das wären immerhin 37.5W reine Heizung.

Machen wir es kurz: Normale Schaltungen gehen NUR mit einem Ausgangstrafo.

Wir haben gesehen, dass für den Spannungsabfall in Ruhe nur der Drahtwiderstand und der Ruhestrom massgebend sind. Wenn wir nun die Betriebsspannung an den Trafo legen und an der Röhrenanode (oder besser diesem Trafo-Anschluss) kurzzeitig einen Masseschluss machen, so wird die Spannung gegen Erde geführt und es fliesst ein Strom, der das Magnetfeld im Trafo aufbaut. Sobald wir diesen Masseschluss wieder aufheben, hört der Strom auf und das Magnetfeld verschwindet schlagartig. Diese Magnetfeldänderung lässt aber im Trafo eine Spannung entstehen, die je höher ausfällt, je schneller die Magnetfeldänderung ist und die Spannung liegt in gleicher Polarität wie die Anodenspannung normalerweise.
Erstens funktioniert auf diesem Prinzip die Auto-Zündspule und der Weidezaun und zweitens, wenn wir den Masseschluss mit der Röhre durchführen und das ganze einen sinusförmigen Verlauf hat, so steigt in dem Fall, wo die Röhre einen abnehmenden Strom aufweist, die Anodenspannung in unserem Fall auf 600V an, obwohl die Betriebsspannung nur 300V ist.

Nochmals kurz: Bei einem Trafo und üblicher Schaltung kann die Anodenwechselspannung (mit angesteuerter Röhre) zwischen Null und der doppelten Betriebsspannung liegen.

Und gleich noch ein Vorzug des Trafos, auch wenn wir hier etwas vorgreifen: Bei einem Trafo spielt es keine Rolle, wie hoch der Ruhestrom ist. Wir haben als Anodenspannung ohne Aussteuerung immer praktisch die Betriebsspannung. Und nur unter dieser Bedingung ist eine Schaltung mit niedrigem Ruhestrom überhaupt betriebsfähig (Klasse AB und B).

Doch zurück zu unseren Grenzwerten. Da steht, dass die Anodenspannung maximal 300V sein darf. Und es steht noch etwas von Uao (Vao), also der Anodenspannung, wenn die Röhre keinen Strom zieht. Dies ist der Fall, wenn wir der Röhre die negative Halbwelle zuführen und sie in den Sperrbereich kommt. Dann haben wir genau diesen Fall und da geht wie erwähnt die Anodenspannung in die Höhe (bei uns 600V).
Und weiter sehen wir noch eine Grenze, nämlich den Katodenstrom. Der darf nicht über 65mA werden. Darunter ist zu verstehen, dass dieser Strom nicht für längere Zeit überschritten werden darf. In der Praxis ist es ja so, dass wir beispielsweise einen Ruhestrom der Schaltung von 50mA haben. Positive Ansteuerung (also kleinere negative Gittervorspannung) erhöht den Strom, negative Ansteuerung verringert ihn bis zum sperren der Röhre. Wir können also den Strom um maximal 50mA verringern. Und wenn die ganze Sache symmetrisch arbeitet, so müssen wir ihn folglich auch bis 100mA erhöhen können. Dieser Strom liegt zwar ausserhalb der tolerierten 65mA, aber dieser Spitzenwert wird nur kurz erreicht oder überschritten. Die Röhre ist auf diesen Betrieb ausgelegt.

Und letztlich gibt es noch die Anoden-Verlustleistung. Diese entsteht aus der Anodenspannung und dem Anodenstrom. In unserem Fall dürfen wir die 12W nicht überschreiten. Bei 300V wäre dies bei einem Strom von 40mA erreicht. Bei 250V wären es 48mA.


Zuvor aber etwas ganz generelles: Röhren sind eigentlich (im Gegensatz zu Transistoren) für hohe Spannungen und vergleichsweise niedrige Ströme gebaut.
Wie hoch die Spannung werden darf, hängt vor allem von den Abständen ab, die im Innern der Röhre, aber auch an ihrem Sockel herrschen. Wäre der Abstand zu gering oder die Spannung zu hoch, käme es leicht zu Überschlägen und somit zum Ausfall der Röhre. In der Praxis verträgt aber eine Röhre einiges mehr, als ihre Grenzdaten angeben. Dass man diese Spannungsgrenzen respektiert, hat mit der Sicherheit zu tun, nichts fahrlässig zu zerstören.
Hier mal die Grenzdaten einer EL84, mit der wir auch nachher hauptsächlich arbeiten.

   
Hier nochmals die Ia/Ua-Kennlinienschar der EL84. Die Funktionen haben wir ja bereits betrachtet. Zusätzlich haben wir hier eine Kurve, angeschrieben mit Wa=12W.
Diese Kurve zeigt den Zusammenhang zwischen Strom und Spannung an der Röhrenanode bei einer Leistung von 12W.


Jetzt kommen wir langsam zu den wichtigen Punkten bei der Berechnung einer Endstufenschaltung.

Die folgende Kennlinienschar haben wir nun um die Grenzwerte erweitert.

   
Rot ist die Leistungskurve der Anode nochmals nachgezogen. Die maximale Anodenspannung ist blau. Blau ist auch die minimale Anodenspannung und rot ist der maximale Kathodenstrom (mal 2). Wir könnten noch einen Minimalstrom festlegen, aber das lassen wir erst mal.

Erinnern wir uns kurz an die Kurvenschar der Kleinsignaltriode mit eingezeichnetem „Anodenwiderstand“.

   
Hier haben wir einfach einen Widerstand genommen und seinen Maximalstrom eingezeichnet, der bei diesem Wert an den angenommenen 250V Betriebsspannung fliesst. Aus der Verbindung von Betriebsspannung und Maximalstrom ergibt sich die Arbeitsgerade.

Und genau so verfahren wir bei der Endröhre.
Nur gibt es hier die bereits eingezeichneten Einschränkungen: Wir dürfen weder Maximalstrom noch Maximalspannung noch Anodenverlustleistung überschreiten. Im vorherigen Diagramm muss sich also der ganze Betrieb zwischen und unterhalb der roten und blauen Kurven abspielen. Wir können nun pröbeln wie wir wollen, wir können nicht an alle Grenzen gehen, ohne die maximale Anodenverlustleistung zu überschreiten.
   
Wir sehen, dass die orange Linie die Anodenverlustleistung massiv überschreitet, weil wir die Grenzen Anodenspannung und Anodenstrom ausgenützt haben.
Bei der grünen Linie mussten wir, um die Leistungskurve nicht zu überschreiten, mit der Betriebsspannung zurück. Die Linie endet jetzt bei 500V. Das ist jene Spannung, die am Trafo bei kontrolliertem Zurücknehmen des Stroms entsteht. Es entspricht also einer mittleren Anodenspannung von 250V. Und der maximal mögliche Strom ist jetzt rund 95mA. Dies ergibt einen Widerstand von rund 5,26k
Die grüne Linie stellt also diesen Anoden-Wechselstromwiderstand (in gespiegeltem Verlauf) dar.

Was uns jetzt interessiert, ist zuerst mal die Leistung, die hier möglich wird. Im Maximum könnte sich die Anodenspannung zwischen Null und 500V bewegen und es wäre ein maximaler Strom zwischen Null und 95mA möglich.
Die Leistung berechnet sich ja aus Strom mal Spannung, also P = U * I.
Nur ergibt die Spannungsänderung von 500V das Maximum und nicht den Effektivwert. Und das gleiche gilt für den Strom von 95mA
Die 500V sind also die Spitzen-Spitzenspannung. Die Spitzenspannung ist bekanntlich Wurzel 2 mal höher als die Effektivspannung. Und die Spitzen-Spitzenspannung ist das gleich 2 mal.
Und wieder gilt das Selbe für den Strom. Wenn wir also einfach mal 500V und 95mA rechnen, so ergäbe das eine Leistung von 47,5W
Nun müssen wir die Spannung um 2 mal Wurzel 2 verringern und den Strom ebenfalls.
Das bedeutet dass wir alles in allem mit unserer berechneten Leistung um 2 mal Wurzel 2 mal 2 mal Wurzel 2 zu hoch sind.
Und Wurzel 2 mal Wurzel 2 ist 2.
Folglich heisst die Rechnung: Spannungsänderung mal Stromänderung durch 8.
Wir bekommen so eine maximale Leistung von 47,5 : 8 = knapp 6W.

Wenn wir nun die Grenze der Minimalspannung berücksichtigen und auch einen Minimalstrom beachten (damit die Sache nicht unendlich klirrt), so haben wir nur noch 470V und 75mA. Dies ergibt 35,25W geteilt durch 8 macht 4,4W

Damit hätten wir die Berechnung der Eintakt (SE = Single ended) Endstufe schon recht weit gebracht. Wir haben die Grenzen im Diagramm eingetragen und den optimalen Arbeitswiderstand festgelegt.
Zu erwähnen ist, dass wir diesen natürlich auch anders hätten legen können, nämlich mit etwas kleinerer Spannung und dafür höherem Strom. Hier ist ein Maximalstrom von 130mA denkbar und eine Maximalspannung von 350V. Rechnen wir dies durch, so bekommen wir einen Anodenwiderstand von 2,7k und eine maximale Leistung 5,7W. Der Unterschied wäre nicht sonderlich gross. Nur wenn wir die Minimalspannung und den Minimalstrom beachten, bekommen wir nur noch gut 3,5W (gegenüber 4,4W) und das alles bei deutlich höheren Strömen, also einem deutlich höheren Röhrenverschleiss. Es ist daher eminent wichtig, eine Röhrenschaltung richtig zu berechnen, um das Maximum an Vergnügen und Röhrenlebensdauer zu "erwirtschaften".

Jetzt fehlt uns noch etwas zu unserer Endstufe: Die Gittervorspannung dieser Schaltung. In unserer Kennlinienschar kämen wir auf eine Vorspannung von rund minus 9,5V. Das ist der Punkt, wo sich die halbe Anodenspannung (leicht tiefer) mit der grünen Arbeitsgeraden kreuzt. Dieser Punkt entspricht einer der vielen Gitterspannungslinien oder liegt in unserem Fall zwischen den Linien für minus 9V und minus 10V.
   
Nun haben wir eine Differenz zu den Angaben im Datenblatt. Hier ist eine kleinere Gittervorspannung von minus 7,3V angegeben. Aber es ist zu beachten, dass in unserer Kurvenschar eine Schirmgitterspannung von 300V angegeben ist, während wir hier nur 250V Ug2 haben.

Somit hätten wir eigentlich alles festgelegt und berechnet, was es an dieser Eintaktstufe mal zu berechnen und festzulegen gibt. Wie wir dann diese Berechnungen umsetzen, folgt später bei den Schaltungsbeispielen.

Die Gegentaktschaltung.

Erinnern wir uns erst mal an die Ia/Ug-Kennlinie.
   
Es ist uns noch präsent, dass wir den Arbeitspunkt (die Gittervorspannung) so legen müssen, dass wir möglichst geringe Verzerrungen haben. Wir wollen also den unteren, krummen Teil der Kurve möglichst nicht nutzen. Das gilt für alle Röhrenanwendungen in Eintaktschaltung.

Und wir erinnern uns, dass wir im letzten Kapitel eine Eintakt-Endstufe mit einer EL84 aufgebaut haben. Wir haben dabei die „Widerstandsgerade“ in die Ia/Ua-Kurve gelegt
   
und letztlich daraus die Leistung abgelesen. Diese lag bei geringem Klirr, folglich unter Berücksichtigung der extremen Kurvenkrümmungen (Minimalspannung, Minimalstrom) bei 4,4W und im Maximum bei 6W, wenn wir den Klirr nicht beachten.

Jetzt könnten wir 2 Röhren einfach parallel betreiben. Dann bekämen wir 8,8W und maximal 12W. Dies, weil wir die gleichen Spannungsverhältnisse hätten, aber den doppelten Strom. Und wir hätten nach wie vor ein Problem der Eintaktstufe: Wir bekämen eine Vormagnetisierung des Ausgangstrafos. Darauf gehen wir in den Schaltungsbeispielen näher ein. Im Moment nur soviel: Eine Gegentaktschaltung ist deutlich besser und billiger als zwei Röhren parallel in Eintakt.

Noch schnell ein Vorteil der Gegentaktschaltung (PP = Push Pull): Erstens ist (ausser in Klasse A) jeweils nur eine Röhre am arbeiten, je nachdem, ob gerade die positive oder negative Halbwelle verarbeitet wird. Damit wird sie entweder nur halb so stark belastet oder die Schaltung kann mehr Leistung liefern. Und zweitens kann man (wie im Folgenden berichtet) den Ruhestrom tiefer legen, sodass man nicht dauernd an der maximalen Anodenverlustleistung "anstösst" und damit ebenfalls höhere Leistungen und höhere Lebensdauer erzielt.
Doch zurück zur Eintaktschaltung:

Wir können auch zwei Röhren genau gleich betreiben wie eine, also in Klasse A (SE), indem wir wieder die Gittervorspannung so legen, dass möglichst nur der gerade Teil der Ia/Ug-Kurve ausgenützt wird.

   
Wir sehen hier die möglichen Kurven. A SE bedeutet eine Röhre (oder zwei parallel) in Eintaktschaltung und daher zwingend Klasse A.

Wenn wir zwei Röhren in Gegentakt verwenden und sie ebenfalls in Klasse A betreiben, so bekommen wir nur eine geringfügig höhere Leistung als bei zwei Röhren parallel.
Die Überlegung ist folgende:
Wie bei einer Röhre erwähnt, bekommen wir eine Leistung von 4,4W ohne grosse Verzerrungen. Wir meiden einfach den stark gekrümmten Teil der Kurve.
Wenn wir uns nun aber die zusammengesetzte Kurve A PP anschauen, so wird die Krümmung der einen Röhrenkennlinie durch die zweite Röhre praktisch aufgefangen. Wir können somit die volle Länge der Kennlinie ausnutzen und kommen damit bei vertretbaren Verzerrungen auf 12W.

Das ist eigentlich eine ideale Betriebsart, zumindest in unserem Beispiel bis 8,8W, weil wir ohne grosse Gegenkopplung relativ wenig Klirr bekommen. Nur ist sie eigentlich unrentabel, weil die Röhren dauernd unter Volllast laufen, auch wenn wir keinen Ton wiedergeben.

Aus diesem Grund wählt man gerne andere Betriebsarten. Schauen wir uns einfach mal die Kurve B PP an.
   
Wir erinnern uns, dass wir an so eine Ia/Ug-Kennlinie einen Sinus ans Gitter gelegt haben.

Und genau das könnten wir in den vorherigen Grafiken tun.
So, wie hier eine Gerade (Violett) vom Arbeitspunkt aus gezogen wurde und so wie hier der Sinus um diese Linie pendelt, so würde er in den anderen Grafiken um den roten Arbeitspunkt pendeln.

Es versteht sich von selbst, dass wir erstens bei B PP einen kleinen Ruhestrom der Röhre haben und zweitens eine lange Stromkurve bekommen.
Bei A PP ist die Stromkurve nur um die jeweilige Krümmung länger als bei der A SE. Dies, weil wir diesen Teil auch ausnützen können. Sonst liegen ja die beiden Kurven aufeinander und es kommt zu keiner nutzbaren Verlängerung.

Bei B PP ist die maximale Verlängerung erreicht. Allerdings könnte man jetzt den Sinus an dieser Gitterspannungs-Kurve als Anodenstrom einzeichnen. Und da würde deutlich, dass im Bereich der kleinen Tonsignale eine erhebliche Verzerrung stattfindet. Kleine Eingangssignale haben hier sehr kleine Stromänderungen zur Folge. Es kommt also zu sogenannten Übernahmeverzerrungen. Es ist Klirr, der entsteht, wenn noch keine der beiden Röhren richtig leitet. Ein solcher Verstärker darf nicht ohne Gegenkopplung betrieben werden (obwohl es bisweilen gemacht wird).

Die Alternative ist die AB PP. Hier ist die Gittervorspannung so gelegt, dass die Röhren jeweils in Leitrichtung in den linearen Bereich aussteuern, in Sperrrichtung aber (fast klirrfrei) den gekrümmten Teil ausnützen. Sicher ist, dass wir hier fast keine Übernahemverzerrungen haben und dass die Stromkennlinie doch fast so lange wird wie in Klasse B (B PP).
Doch zurück zu unseren Kurven.
Wir haben die Ia/Ua-Kurve mit der „Widerstandsgeraden“ und allen anderen Hilfslinien gesehen. Da ist unter anderem die Anodenverlustleistung (Wa = 12W) eingezeichnet.
Wenn wir eine Gegentaktschaltung bauen, so können wir die "Wa"-Kennlinie auf der Grafik überschreiten. Wir haben erstens einen geringeren Ruhestrom bei AB oder B, was die Röhren entlastet und wir haben die Leistungsabgabe jeweils nur zur halben Zeit, weil sich die Röhren ja abwechseln. Wir könnten also die Ruheleistung aufschreiben und von der "Wa" abzählen. Der Rest wäre das, was uns bei Aussteuerung zur Verfügung steht.
Laut Datenblatt hätten wir eine Ruheleistung der Röhre von gut 2W, sodass wir knappe 10W im Aussteuerungsfall zur Verfügung hätten. Und weil dies praktisch nur halbzeitlich geschieht, könnten wir diese Leistung pro Röhre mit 19W annehmen (auf Dauerbetrieb umgerechnet). Der mittlere Strom bei 300V Betriebsspannung wäre rund 63,5mA. Dies ergäbe einen Spitzenstrom von 127mA und damit wäre die Röhre wirklich ausgereizt. Der Arbeitswiderstand pro Röhre käme nach dieser Rechnung bei etwa 4,7k zu liegen. Und die Leistung müsste bei etwa 19W liegen.

Vergleicht man das mit den Angaben im Datenblatt, so haben wir dort einen Arbeitswiderstand Raa von 8k und eine Ausgangsleistung von 17W. Dies liegt daran, dass wir in unserer Rechnung von einem Ruhestrom nahe Null ausgegangen sind, ohne Rücksicht auf den Klirr und daher eine längere Stromkurve zur Rechnung zur Verfügung stand. Rechnen wir nämlich die 2W Ruheleistung der Röhren von unserer Ausgangsleistung ab (was etwa dem Überlappungsbereich entspricht), so landen wir in der Nähe der Datenblatt-Angaben.

An dieser Stelle eine "Einschränkung": Ganz so einfach wie es hier aussieht, ist die Sache nicht. Es gibt nämlich zwei Probleme. Erstens haben wir die Tatsache, dass das Widerstabdsverhältnis am Trafo dem Quadrat des Übersetzungsverhältnisses entspricht. Das bedeutet, dass bei einem Raa von 8k und einem Lautsprecherwiderstand von 8 Ohm das Impedanzverhältnis 1:1000 ist. Das Verhältnis der Windungszahl muss folglich die Wurzel von 1000 sein, also 31,622776. Und wir haben ja in der Hälfte der Windungszahl den Mittelabgriff des Ausgangstrafos, wo die Spannung zugeführt wird. Und dieser Punkt ist durch die Netzteilelkos für Tonspannung an Masse. Also haben wir pro Anode nur noch ein Übersetzunsverhältnis von 15,811388, was einem Impedanzverhältnis von 1:250 entspricht und nicht 1: 1000 wie ursprünglich für beide Anoden und auch nicht 1:500, wie man annehmen könnte. Dann, wenn nur eine Röhre aktiv ist (bei der negativen oder positiven Halbwelle am Ausgang) ist folglich nur die halbe Trafowicklung aktiv. Und damit ist Ra in diesem Moment Raa/4.
Das sieht zuerst mal verwirrend aus, doch die Verwirrung geht noch weiter. Man könnte doch jetzt annehmen, dass zwei EL84 in Gegentakt zwei mal 8,5W (=17W) liefern müssen. Im Durchschnitt über längere Zeit gerechnet stimmt dies. Kurzzeitig stimmt dies nicht, denn bei der positiven Halbwelle muss die eine Röhre die volle Leistung erbringen, weil die andere sperrt und bei der negativen Halbwelle genau umgekehrt. Und da sich die Spannung nicht erhöht (sie ist im Maximum bei Sinusansteuerung jeweils das Doppelte der Betriebsspannung), muss sich an jeder Röhre der Strom erhöhen.
Wir verlangen also halbzeitlich von jeder Röhre 17W effektiv, bezw. 34 W Spitzenleistung.
Sind aber beide Röhren in Betrieb, also bei kleineren Leistungen im AB-Betrieb, so sind auch beide Wicklungen gleichzeitig aktiv und damit sind diese dann mit je 4k zu berechnen. Die 2k kommen also erst zum Tragen, wenn nur eine Röhre aktiv wäre.

Dies alles ist jetzt sehr verwirrlich und ich muss zugeben, dass ich darüber auch schon gestolpert bin. Und wenn man eine Schaltung in AB aufbaut, dies aber mit einer festen Gittervorspannung, so ist der Ra nicht konstant, sondern ändert sich mit der Aussteuerung der zweiten Röhre. Und es wird daher recht komplex, da etwas ausrechnen zu wollen. Wenn wir also die Leistung einer Gegentaktendstufe berechnen wollen, so ist dies im extremen B-Betrieb möglich, wo wir immer nur eine Röhre aktiv haben und damit Ra klar 1/4 von Raa ist. AB-Betrieb müssten wir bei fester Gittervorspannung aufteilen in einen A-Betrieb (solange dauernd beide Röhren aktiv sind) und in den B-Bereich (wo nur eine Röhre aktiv ist) und die errechneten Leistungen zusammen zählen. Haben wir aber AB mit einem Katodenwiderstand, so ist ja die Gittervorspannung nicht konstant, sondern signalabhängig und läuft damit in den B-Bereich.

Diese ganze Erklärung wurde nötig, weil ich von Technikerseite darauf hingewiesen wurde, dass meine Erklärung (die bei der Annahme, es handle sich dauernd um Betrieb beider Röhren mit jeweils der halben Leistung aufgestellt wurde) so nicht stimme. Das ist bedingt richtig, wenn man von den tatsächlichen Verhältnissen ausgeht. Nur ist auch dann der Ra nicht für jeden Moment verbindlich zu bestimmen, weil dies schon durch die Datenstreuung der Röhren beeinflusst wird. Konkret bedeutet dies, dass man sich betreffend Raa an die Angaben der Datentabelle halten sollte und damit mit "normgerechten" Röhren auch die Leistung bekommt, die dort angegeben wird.

Ich könnte jetzt hier noch lange über die verschiedenen Kurven und die Auswertung und was weiss der Geier alles "labern". Tatsache ist erstens, dass sich die Gegentaktschaltung an den selben Daten "festmacht" wie die Eintaktschaltung, dass man also quasi (nach Festlegung des Arbeitspunktes) zwei mal die selben Diagramme für je eine Röhre verwendet und dass zweitens, wenn man die ganze Geschichte selbst entwickeln wollte, umfangreiche Gerätschaften nörig wären. Es ist daher einfacher und empfehlenswert, die Daten der Röhrenhersteller zu übernehmen.
Hier eine der diversen Datenbanken, bei denen man nicht alle, aber die wichtigsten Röhren findet:
http://frank.pocnet.net/sheetsE.html
Und weil wir bisher mit der EL84 als Endröhre gearbeitet haben, hier das Datenblatt:
http://frank.pocnet.net/sheets/030/e/EL84.pdf

Und noch ein Wort zu Endröhren in Triodenschaltung:
Durch den geringeren Ri (und damit den höheren Durchgriff, Gruss von Hr. Barkhausen) und entsprechend anderen Effekten hat eine Triode generell ein etwas anderes Klirrspektrum. Und dies besonders, wenn eine Pentode (Schimgitter wird mit Anode verbunden) als Triode betrieben wird. Ob dies Sinn macht, bleibe dahingestellt. Es ist einfach so, dass bestimmte Klirrspektren (K3, K5) unangenehmer wirken als andere (K2, K4). Dementsprechend ergeben sich klangliche Unterschiede, die auch zwischen Eintakt und Gegentakt feststellbar sind. Wenn man aber Hifi etwas enger fasst und darunter nicht nur "angenehmes Gedudel" versteht, sondern eine Wiedergabe, die dem Original zumindest nahe kommt, ist weder K2 noch sonst ein Klirr angesagt. Es ist immer ein Zeichen von Unzulänglichkeit, wenn ein Gerät irgend etwas produziert, was nicht im Ursprung vorhanden war, ob es nur gut klingt, gut schmeckt, gut riecht oder was auch immer.

Ich könnte mich daher hier in Trieodenschaltungen für Endröhren ergehen. Die Grundlagen sind aber die selben wie bei der Pentode. Daher lasse ich dieses Kapitel hier mal beiseite. Aber ich werde diese Angelegenheit in den Schaltungsbeispielen noch streifen.

Eines möchte ich an dieser Stelle nach anfügen und das ist die Intermodulation. Ich habe die Tonhöhenverhältnisse bei K2 und K3 mit den Oktaven, Quinten und Terzen erklärt. Und ich habe gesagt, dass diese Zusatztöne an gekrümmten Kennlinien entstehen. Es gibt aber noch einen Effekt: An gekrümmten Kennlinien entstehen auch Mischprodukte. Hat man eine Röhre mit krummer Kennlinie, so macht sie nicht nur K2 und/oder K3, sondern sie macht aus zwei gleichzeitigen Tönen neue.
Nehmen wir an, wir hätten 320Hz und 730Hz, so kämen sicher mal diese zwei Frequenzen wieder raus. Und es kämen jeweils das zweifache und/oder das dteifache als Klirr heraus. Aber es gäbe auch die Frequenz 1050Hz als Summe und 410Hz als Differenz.
Wenn wir gesagt haben, dass K2 (doppelte Tonhöhe = Oktave) kein Problem ist und K3 nur ein geringes, so liegen die 1050Hz wie auch die 410Hz absolut schief in der Landschaft. Dies klingt einfach nur noch falsch. Und wenn daher bei Röhrengeräten der warme K2-Klang gelobt wird, so muss man auch den Intermodulationsklang mit der deutlich verstimmten Wiedergabe in Kauf nehmen. Ob das hörbar ist oder nicht hängt von der Musik ab. Und weil das die „Fachmänner“ wissen, nehmen sie nicht jede Musik um Röhrengeräte vorzuführen.
Schaltungen

Nachdem die grundsätzliche Berechnerei anhand der Röhrenkurven erklärt wurde, geht es jetzt um die verschiedenen Schaltungsvarianten.
Nehmen wir zu Beginn die Triode. Hier gäbe es eigentlich drei Möglichkeiten, ein Signal einzuspeisen und zwei, es wieder herauszuholen.

Das übliche ist, die Katode als Bezugspunkt an Masse (allenfalls über einen Widerstand) und das Eingangssignal ans Gitter zu legen. Das sähe dann etwa so aus:
   
Diese Grundschaltung nennt man Katodenbasis, weil die Katode der Bezugspunkt der ganzen Schaltung ist.
Das Eingangssignal liegt also zwischen Katode und Gitter, die Ausgangsspannung zwischen Katode und Anode.
Überlegen wir uns einmal, was da an der Anode herauskommt. Wenn wir uns die Ia/Ug-Kennlinie in Erinnerung rufen, so haben wir eine mehr oder weniger grosse negative Gittervorspannung (die wir uns hier noch denken müssen) und je grösser diese negative Spannung ist, umso kleiner ist der Anodenstrom und je stärker sich die Gitterspannung gegen Null bewegt, umso grösser ist der Anodenstrom.
Wir haben aber in der Anodenleitung einen Widerstand (Ra), über den die Betriebsspannung Ub an die Anode gelangt und dort die Anodenspannung Ua bildet. Logisch ist, dass bei höherem Strom der Röhre eine höhere Spannung am Ra abfällt und somit die Ua kleiner wird.
Das bedeutet, dass die positive Halbwelle am Gitter einen steigenden Strom erzeugt und damit die Anodenspannung genau gegenläufig ist. Eine Röhre hat also in dieser Konfiguration eine Phasendrehung (oder besser bezeichnet als Invertierung) zur Folge.

Ganz am Anfang haben wir mal davon gesprochen, dass man eine Gittervorspannung mit negativem Potential gegenüber der Katode braucht.
Und wir haben auch gesehen, dass die Elektronen, die zufällig auf dem Gitter landen, dieses negativ aufladen. Zur Ableitung dieser negativen Elektronen dient der Gitterableitwiderstand. Bei bestimmten Röhrentypen (Kleinsignalröhren im Toneinsatz) kann man durch die entsprechende Wahl dieses Widerstandes (10M, also 10 Millionen Ohm) so viele Elektronen auf dem Gitter belassen, dass sich die gewünschte Spannung ergibt. Das könnte bei obiger Schaltung der Fall sein.

   
Die zweite (bereits erwähnte) Möglichkeit ist, einen Widerstand in die Katodenleitung zu legen. Nehmen wir einmal an, die Röhre würde 1mA Strom ziehen und bräuchte eine Gittervorspannung von 2,2V, so würde mit einem Katodenwiderstand von 2,2k an diesem genau die 2,2V abfallen. Zwar ist das Gitter jetzt nicht negativ, aber es liegt auf Null-Potenzial, während die Katode auf +2,2V liegt. Also ist das Gitter 2,2V negativer als die Katode. Und genau das wollen wir.
In diesem Fall ist der Gitterableitwiderstand irgend etwas zwischen 100k und (je nach Röhre) bis zu 2,2M.

Machen wir uns zur Röhre nochmals kurz ein paar Gedanken. Angenommen, die Röhre hätte eine Betriebsspannung von 200V und wir bekämen dann bei 2,2V Gittervorspannung einen Anodenstrom von 1mA. Wie hoch wäre der Katodenstrom? Natürlich auch 1mA, denn die Triode hat ja nur eine Elektrode, über welche die Elektronen die Röhre wieder verlassen.

Was wäre, wenn nun der Anodenwiderstand gleich gross wie der Katodenwiderstand wäre? Wir hätten daran auch einen Spannungsabfall von 2,2V.

Und was ist, wenn wir an das Gitter eine Wechselspannung legen?
Immer wenn das Gitter positiver wird, steigt der Strom in der Röhre und damit nimmt die Anodenspannung ab.
Aber dadurch, dass der Strom steigt, steigt auch die Katodenspannung und wirkt damit der steuernden Gitterspannung entgegen.
Machen wir dazu eine kleine Rechnung:
Bei Ug Null haben wir an der Katode +2,2V und der Strom ist 1mA.
An der Anode haben wir ( 200V - 2,2V= ) 197.8V

Angenommen, das maximale Gittersignal wäre +0,5V und -0,5V
Und weiter angenommen, wir hätten an der Röhre eine Steilheit von 0,45mA/V (das bedeutet, dass sich der Anodenstrom um 0,45mA verändert, wenn die Gitterspannung um 1V verändert wird). Damit würde die Gitterspannungsänderung von + oder - 0,5V eine Stromänderung von jeweils 0,225mA zur Folge haben.
Wir hätten also nicht mehr 1mA Strom, sondern im Minimum 0,775mA und im Maximum 1,225mA.
Das aber bedeutet, dass sich die Katodenspannung von vorher 2,2V auf 1,705V verringert oder auf 2,695V erhöht. Das bedeutet aber auch, dass die Erhöhung (oder Verringerung) der Katodenspannung von jeweils 495mV bei einer Eingangsänderung von 500mV eigentlich nur noch eine Rest-Steuerspannung von 5mV übrig liesse. Um so viel änderte sich die Gitterspannung gegenüber der Katodenspannung.
Daraus können wir nun schliessen, dass der Katodenwiderstand der Steuerspannung entgegenwirkt. Es entsteht eine sogenannte Gegenkopplung. Kopplung deshalb, weil die Katodenspannungsänderung eine Folge der Eingangsspannung ist, sie ist also daran gekoppelt. Und Gegen- , weil sie die ursprüngliche Wirkung mindert, ihr also entgegen wirkt.

Wenn man den Katodenwiderstand mit einem Kondensator überbrückt, so wird die entstehende Wechselspannung kurzgeschlossen. In unserem Beispiel bliebe dann die Kathodenspannung auf den (sich langsam aufbauenden) 2,2V. Und damit wäre die volle Steuerspannung wirksam.

Dass ich hier etwas gemogelt habe, fällt auf, wenn man die Geschichte genau durchrechnet. Ich habe gesagt, dass die effektive Steuerspannung auf 5mV gefallen sei, weil die Katode ja bei einem Eingangssignal von 500mV um 495mV nachgefolgt ist. Bei 5mV hätten wir aber keine so grosse Stromänderung (bei einer Steilheit von 0,45mA/V wäre das gerade mal 0,00225mA). Aber damit wäre ja die Katodenspannungsänderung wieder fast Null und somit....
Tatsache ist, dass die entstehende Katodenspannung die Steuerspannung reduziert und damit die Verstärkung verringert.

Dass so etwas nicht nur Nachteile hat, versteht sich. Angenommen, die Ia/Ug-Kennlinie wäre irgendwie nicht ideal, also krumm (wie wir in unserem Beispiel schonmal gesehen haben), so würde der Strom nicht genau 1:1 der Eingangsspannung folgen. Das Resultat wären Verzerrungen. Wenn nun diese Katodenspannung als Funktion des Stroms nicht ideal wird, so ergeben sich unterschiedliche Kompensationen der Steuerspannung. Das bedeutet, dass die Fehler der Kennlinie weitgehend ausgeglichen werden. Man verliert zwar etwas an Verstärkung, aber man gewinnt eine verzerrungsarme Wiedergabe.

Jetzt habe ich in unserem Beispiel in der Katode und der Anode gleich grosse Widerstände eingesetzt. Das Ergebnis ist, dass ja in beiden Widerständen der selbe Strom fliesst und damit auch die gleiche Spannung abfällt. Wenn sich nun in unserem Beispiel bei einem Eingangssignal von +/-0,5V eine tatsächliche Stromänderung von rund 0,113mA ergibt (die Rückwirkung mit berücksichtigt), so ändert sich die Katoden- UND Anodenspannung entsprechend um knapp 250mV. Dabei wird die Katode positiver (+ Halbwelle am Eingang) und gleichzeitig die Anode weniger positiv oder die Katode wird weniger positiv (- Halbwelle am Eingang) und die Anode wird positiver. Wir haben also zwischen Eingang und Katode keine Phasendrehung, zwischen Eingang und Anode aber eine Invertierung.
Und wir haben durch die gleich grossen Widerstände die gleich grosse Spannung. Würde man nun den Anodenwiderstand auf 22k erhöhen, bekäme man (theoretisch, ohne den Durchgriff zu berücksichtigen) die zehnfache Ausgangsspannung gegenüber jetzt.
Da der Durchgriff generell den Anodenstrom = Katodenstrom beeinfluss, nimmt nicht nur die Anodenspannungsänderung ab, sondern auch jene der Katode. Die "Verstärkung" der Stufe zwischen der Katoden- und Anodenspannungsänderung bleibt dabei gleich dem Widerstandsverhältnis Ra zu Rk.
Was haben wir jetzt gelernt?
Die übliche Schaltungsart ist die Katodenbasisschaltung, wo also die Katode den Bezugspunkt darstellt.
Rk ist eine Möglichkeit, eine Gittervorspannung zu erzeugen.
Das Signal an der Anode ist invertiert gegenüber dem Gitter-Eingangssignal.
Wenn wir Rk nicht für Wechselspannung kurzschliessen, entsteht eine Gegenkopplung, die linearisierend wirkt.
Das Katodensignal ist phasengleich dem Eingangssignal.
Uk~ zu Ua~ entspricht dem Widerstandsverhältnis Rk zu Ra.

Wir haben jetzt die Grundschaltung der Triode kennen gelernt. Für die Pentode ergeben sich ganz ähnliche Verhältnisse.
   
Die Gittervorspannung wird zumindest im Kleinsignalbereich praktisch immer mit einem Katodenwiderstand realisiert.
In der Regel wird bei der Pentode der Katodenwiderstand mit einem Elko (und allenfalls einem Folienkondensator) überbrückt. Zwar würde die Gegenkopplung hier auch funktionieren, aber hier ist der Katodenstrom nicht gleich dem Anodenstrom. Bei der Pentode haben wir zwei Elektroden, die Elektronen ableiten, die Anode und das Schirmgitter.
Man könnte eine Röhre so bauen, dass die Steuerkurve zwischen Steuergitter und Anode gleich verläuft wie zwischen Steuergitter und Schirmgiter. Das könnte aber zu anderen Nachteilen führen, etwa dass ein übermässiger Schirmgitterstrom die Folge wäre. Man baut daher die Röhre so, dass sie in Bezug auf Steuergitter zu Anode optimale Verhältnisse bietet.
Daraus resultiert aber, dass der Schirmgitterstrom "verzerrt" werden kann. Und da sich wie gesagt der Katodenstrom aus Anodenstrom UND Schirmgitterstrom zusammen setzt, könnte eine solche Stromgegenkopplung zusätzliche Verzerrungen erzeugen, statt sie zu verringern.

Und da wie gesagt Ik nicht Ia ist, fällt auch die Geschichte mit den gleichen Widerständen flach. Man wird also im Gegensatz zur Triode eine Pentode nicht als Phasenkehrröhre mit gleichen Widerständen einsetzen.


Nach der üblichen Schaltungsart jetzt etwas, das kaum angewendet wird. Hier wird die Steuerung des Stroms durch die Änderung der Anodenspannung vorgenommen.
   

Ändert man bei einer Triode die Anodenspannung, so verändert sich damit in erheblichem Masse der Anodenstrom. Dies durch den "Durchgriff".

In einem Verstärker wird man diese Betriebsart sicher nicht anwenden, denn das Signal, das an der Kathode abgenommen werden könnte, ist um ein Vielfaches geringer als das, welches man hinzugefügt hat. Ein Signal abschwächen und dabei noch verschlechtern, dafür bezahlen und noch Leistung aufbringen, ist eigentlich die dümmste Art des Elektronik-Baues.

Es gibt allerdings Schaltungen, die auf dieser Konstruktion basieren. Und zwar kann man mit einem hochohmigen Widerstand in der Katode diese hochohmig machen. Verbindet man nun das Gitter für Wechselspannung mit der Katode (man müsste in der obigen Schaltung den Massepunkt über einen hochohmigen Widerstand gegen Masse oder Minus führen), so wird die Röhre eigentlich nicht angesteuert und für die Signalweiterleitung von der Anode zur Katode ist nur der Ri der Röhre massgeben. Es ergibt sich also an der Katode eine Spannung, die dem Teilerverhältnis Ri + Rk : Rk entspricht (Rk ist nicht der gezeichnete Widerstand, sondern der Zusätzliche gegen Masse oder Minus).
Die zweite Möglichkeit ist, das Gitter mit Masse zu verbinden. Dann wirkt wie bereits angetönt der Durchgriff. Das Katodensignal entspricht dann dem Anodensignal, geteilt mit Mü der Röhre. In der Praxis kann man aber genau diese Effekte auch mit reinen Widerständen und Spannungsteilern erreichen.

Es gibt aber eine Anwendung: Bei Radiosendern (Amplitudenmodulation). Hier kann man der Röhre am Gitter die Hochfrequenz zuführen und durch Verändern der Anodenspannung den Hub (die Amplitude) des HF-Signals verändern. Dabei wird aber das Ausgangssignal nicht an der Kathode abgenommen, sondern auch an der Anode.
Der Vorteil dieser Schaltung (normalerweise mit Pentoden) ist, dass die Verzerrungen auf ein Minimum reduziert sind.
Nachteilig ist, dass der Steuerteil für die Anodenspannung, also der Tonverstärker, die gleiche Leistung aufbringen muss wie der eigentliche Sender.



Eine Schaltungsart gibt es bei der Triode, die bisweilen angewendet wird, die Gitterbasisschaltung.
   
Hier wird das Signal an der Katode eingespeist und an der Anode abgenommen. Es handelt sich aber nicht um eine eigentliche Spannungssteuerung, sondern um eine Stromsteuerung.
Nehmen wir wieder unsere Röhre mit 1mA Strom, einem Rk von 2,2k und setzen wir einen Anodenwiderstand von 22k ein. Das Gitter können wir direkt an Masse legen.

Angenommen, wir führen der Katode einen Strom von +0,1mA zu, so steigt die Katodenspannung um 0,22V an. Wir haben jetzt nicht mehr 2,2V Gittervorspannung, sondern 2,42V. Also zieht die Röhre weniger Strom. Dies reduziert aber die Spannung, die durch den Strom im Rk abfallen würde. Somit kann die Katodenspannung nicht auf die 2,42V steigen, sondern vielleicht auf 2,3V
Das bedeutet, dass der Röhrenstrom um 0,0545mA reduziert wurde. Folglich hat sich auch im Anodenwiderstand der Strom um diesen Betrag reduziert und damit entsteht eine Anodenspannungsänderung von rund 1,2V

Normalerweise speisen wir in eine Schaltung eine Spannung ein und nicht einen Strom. Wir könnten jetzt eine Spannungsquelle nehmen, die 1,2V liefert und diese Spannungsquelle über einen Widerstand von 12k an die Katode anschliessen, dann bekämen wir die gewünschte Stromzufuhr von 0,1mA.
Dies hätte an der Katode eine Spannungsänderung von 0,1V zur Folge und ergäbe eine Stromänderung von 0,0545mA an der Anode. Und bei 22k Anodenwiderstand hätten wir wieder die 1,2V als Ausgangsspannung.

Man kann sich nun natürlich fragen, was das ganze soll. Vorher hatten wir 1,2V an 12k, nachher haben wir die selben 1,2V an 22k, also keine Verstärkung der Spannung und erst noch eine höhere Ausgangsimpedanz.
Wenn wir aber beachten, dass aus den 1,2V eine effektive Steuerspannung von 0,1V geworden ist, so können wir auf der Ia/Ug-Kennlinie dieses kleine Stück heraussuchen und soweit vergrössern, dass es einer Strecke von 1,2V entspricht. Über echte 1,2V ist die Kennlinie nicht gerade, aber über 0,1V kann man sie als praktisch ideal betrachten. Wenn wir jetzt den Anodenwiderstand auf 220k vergrössern, bekommen wir eine Ausgangsspannung von 12V, allerdings eben mit der höheren Impedanz. Aber wir hätten schon mal eine Spannungsverstärkung praktisch ohne Klirr. Wenn wir jetzt dieser Stufe eine entsprechende Ausgangsstufe nachschalten, die keine Spannungsverstärkung hat, dafür aber die Impedanz anpasst, hätten wir eine brauchbare Schaltung.

In der Praxis sind solche Schaltungen in Verstärkern aber eher selten. Sie werden hauptsächlich in Hochfrequenzgeräten (UKW-Tuner) eingesetzt, weil durch das an Masse liegende Gitter der Katoden-Eingangsteil und der Anoden-Ausgangsteil sauber getrennt sind.
Die dritte Möglichkeit haben wir eigentlich schon bei der ersten Variante, also der Katodenbasis angesprochen. Wir haben ja gesagt, dass an der Katode eine Wechselspannung entsteht, die der Gitterwechselspannung mehr oder weniger entspricht. Wir haben da mal angenommen, Rk sei gleich Ra, beide 2,2k
Wenn wir nur das Katodensignal verwerten, können wir Ra als Draht einsetzen, also Null Ohm. Damit gibt es keine Ausgangsspannung an der Anode. Und somit auch keinen Durchgriff.
Sicher ist, dass wir bei dieser Schaltung (rein am Gitter, raus an der Katode) keine Spannungsverstärkung bekommen. Aber wir bekommen eine hohe Eingangsimpedanz und eine kleine Ausgangsimpedanz.

Bisweilen wird diese Schaltung durch zusätzliche Widerstände erweitert, sodass sie einen höheren Eingangswiderstand aufweist, andererseits aber auch einen höheren Ausgangswiderstand. Dafür ist sie dann für höhere Pegel geeignet.
   

Fassen wir diesen Teil nochmals zusammen:

Pentoden eignen sich fast ausschliesslich für die übliche Katodenbasisschaltung. Ebenso sind kombinierte Schaltungen (gleiche Widerstände in Anode und Katode) unsinnig. Dies verhindert der nicht lineare Schirmgitterstrom.

Die übliche Schaltungsart ist Ansteuerung am Gitter und Abnahme an der Anode. Diese Schaltung zeigt die höchste Spannungsverstärkung, verbunden mit mehr oder weniger Klirr. Sie besitzt eine recht hohe Eingangsimpedanz, im Tonbereich ist das der Gitterableitwiderstand, und eine mittlere bis höhere Ausgangsimpedanz.
In Sachen Ausgangsimpedanz sind die Trioden etwas im Vorteil gegenüber den Pentoden.

Es gibt Schaltungen (Ansteuerung an der Anode), die im normalen Verstärkerbau eigentlich keine Bedeutung haben.

Die Gitterbasisschaltung zeigt eine mittlere Verstärkung bei kleinstem Klirr, dafür aber eine tiefe Eingangsimpedanz und eine hohe Ausgangsimpedanz.

Die Anodenbasisschaltung (Katodenfolger) hat keine Spannungsverstärkung, dafür aber einen sehr hohen Eingangswiderstand, verbunden mit einem relativ geringen Ausgangswiderstand.

Magnetismus

Röhrenendstufen sind ohne Ausgangsübertrager fast nicht denkabar. Und Ausgangsübertrager funktionieren nur mit Magnetismus. Folglich ist dieser Abstecher gerechtfertigt.

Wenn Strom durch einen Draht fliesst, entsteht Magnetismus.
Und wenn man einen Draht in einem Magnetfeld bewegt, wird eine Spannung induziert.
Diese zwei Kernsätze erklären, dass der Strom im Draht irgendetwas in diesem Draht auslöst. Weil, wenn sich durch den Strom das Magnetfeld bildet, so ändert es sich von anfangs NULL bis zu seinem Endwert. Und genau diese Änderung bewirkt im Draht eine Spannung, die der angelegten Spannung entgegen wirkt und damit den Stromfluss verringert.
Ist das aber einfach ein gerader Draht, so verpufft die meiste magnetische Wirkung in der Gegend. Wenn man aber den Draht aufwickelt, so liegen die einzelnen Windungen dicht aufeinander und beeinflussen sich entsprechend stark. Angenommen, wir hätten 100 Windungen, so würde eine Windung auf die restlichen 99 wirken oder anders gesagt: Gegenüber dem geraden Draht hätten wir aus 1% Drahtlänge 99% Wirkung.

Das ganze funktioniert aber nur bei einer Magnetfeldänderung. Wenn also eine Gleichspannung angelegt wird, so baut sich das Magnetfeld auf, also eine Änderung. Und diese Änderung erzeugt die Gegenspannung, welche den Strom reduziert. Dadurch baut sich das Magnetfeld nicht schlagartig auf, sondern langsam. Irgendwann wird die Änderung immer kleiner, weil wir langsam zum endgültigen Magnetfeld gelangen. Und durch die kleinere Änderung nimmt die Gegenspannung ab. Bei Gleichstrom ist also irgendwann die Wirkung weg und es bleibt die angelegte Spannung, der Drahtwiderstand und der daraus resultierend der Strom.
Bei einer Wechselspannung bleibt die Entstehung der Gegenspannung, weil wir ja dauernd eine Änderung haben.

Man kann sich vorstellen, dass das Magnetfeld einer Spule mit der Anzahl Windungen zunimmt. Und man kann sich ebenso vorstellen, dass das Magnetfeld mit höherem Strom zunimmt.
Würde man also eine riesige Spule mit extrem hohem Strom bauen, hätte man eine maximale Wirkung. Dass natürlich die Spule nicht unendlich gross werden kann, versteht sich. Erstens wäre dann die innerste Windung unendlich weit von der äussersten entfernt, also keine magnetische Beeinflussung mehr, und zweitens bräuchte man dazu einen unendlich langen Draht, der dann einen unendlich grossen Widerstand darstellt, sodass kein Strom mehr fliessen kann und die Sache nicht mehr funktioniert.

Aber wenn wir uns die Endstufenberechnungen mit den Röhrenkennlinien nochmals in Erinnerung rufen: Wir haben da eine Widerstandsgerade von etwa 5,2k eingetragen, also 500V und 95mA. Dieser Wert wird aus der Transformation des Lautsprechers gebildet. Nun hat aber der Ausgangsübertrager auch eine Impedanz, die uns nur Leistung weg nimmt. Wir möchten daher diese Impedanz mindestens 3 mal grösser wählen als die eigentliche Last sein soll.

Um die Induktivität einer Spule zu erhöhen, verwendet man Eisenkerne, die ja das Magnetfeld "zusammenhalten". Damit ist die Wirkung konzentrierter und stärker. Nur, wenn man sich den Eisenkern als eine Ansammlung kleiner Magnete vorstellt, so kann man ihn nur soweit in eine Richtung magnetisieren, bis alle diese Magnetchen ausgerichtet sind. Mehr geht nicht. Daher ist ein Maximalwert gegeben, der sich in der nachfolgenden Grafik durch die flach werdende Kurve ausdrückt.

Jetzt kommt ein Problem: Wenn wir eine Eintakt-Endstufe haben, so fliesst durch den Ausgangsübertrager dauernd der Ruhestrom der Röhre. Wir haben also kein eigentliches Wechselfeld, sondern nur ein Magnetfeld einer Richtung, das stärker und schwächer wird.

   
Ich kann also das Magnetfeld wie im linken Bild nur knapp zur Hälfte nutzen gegenüber der vollen Ausnutzung im rechten Bild.

Hier zwischendurch die Überlegung, wie es sich beim Gegentaktübertrager verhält: Wir haben zwar auch die Ruheströme in den beiden Anodenwicklungen, aber da die Speisung in der Trafo-Mitte erfolgt und damit von dort aus gesehen die eine Anode "linksgewickelt" betrieben wird und die andere "rechtsgewickelt", heben sich die Ruhströme auf. Wir haben also bei einem Gegentaktübertrager die Verhältnisse wie hier im rechten Bild.
Und das würde bedeuten, dass der Eintaktübertrager mindestens so viel Eisen haben müsste, wie der Gegentaktübertrager, der mehr als das Doppelte an Leistung liefert.

Jetzt gibt es einen kleinen Trick: Man macht den Eisenkern nicht ganz zu, sondern lässt einen kleinen Spalt.
Normalerweise verwendet man E I Kerne. Wenn man zwischen das E-Blech und das I-Blech eine Papierzwischenlage legt, lässt sich der Kern nicht mehr so stark magnetisieren. Etwas "verpufft" an dieser Lücke. Und zwar hauptsächlich die dauernde Vormagnetisierung. Dies wirkt sich auch auf das Wechselfeld aus, jedoch nicht so stark.
Letztenendes bekommt man also einen kleineren Eisenkern als bei einem Trafo ohne Luftspalt.

Noch ein Wort zum Trafobau:
Ein Ausgangstrafo sollte erstens einen guten Wirkungsgrad haben, damit möglichst wenig Leistung verloren geht. Zweitens muss er so bemessen sein, dass er möglichst wenig verzerrt.
Beides erreicht man durch entsprechende Grösse und Windungszahl. Nun soll er aber auch einen ausgeglichenen Frequenzgang haben. Dazu muss hochwertiges Eisen verwendet werden und die einzelnen Bleche dürfen sich nicht berühren. Die Bleche sind ja in sich elektrisch leitend und damit wird die Spannung, die im Blech zwangsläufig induziert wird, in diesem zu einem Strom, der die eigentliche Trafowirkung behindert. Aus diesem Grund sind die Bleche entweder miteiner Lackschicht oder dünnem Papier belegt. Beides darf nicht beschädigt werden.
Ausserdem muss die Wicklung so gestaltet sein, dass für beide Röhrenanoden (bei Gegentakt) identische Kapazitäten zum Kern und zur Sekundärwicklung entstehen. Daher ist ein hochwertiger Ausgangsübertrager verschachtelt gewickelt. Es werden also die einzelnen Wicklungen in dünnere Lagen unterteilt und Primär- und Sekundärlagen wechseln sich fortlaufend ab.
Dies alles wird natürlich bei einem Netztrafo nicht beachtet, weil er ja an einer Frequenz von 50 oder 60 Hz betrieben wird. Wer also glaubt, ein Netztrafo könne als Ausgangsübertrager dienen, der irrt gewaltig. Es geht, aber die Resultate sind undiskutabel.

Aus diesem Grunde, und weil der Ausgansübertrager einen sehr grossen Einfluss auf den Klirr und Frequenzgang eines Verstärkers hat, sollte man das Ding mit Sachverstand auswählen.


Und gleich noch etwas zum Thema Übertrager:
Wir haben bei unserer Röhre eine Primärimpedanz von 5,2k bekommen. Die Sekundärimpedanz soll 5,2 Ohm sein. Wie hoch wird das Übersetzungsverhältnis?

Nehmen wir an, wir steuern die Röhre so weit aus, dass wir an der Anode eine Spannungsänderung von 52V hätten. Bei einem Widerstand von 5,2k entspräche das ( I = U : R ) 52 : 5200 = 0,01, also 10mA. Dies ergäbe eine Leistung von ( P = U x I ) = 52 x 0,01 = 0,52W Dies an der Anode.
Wenn wir annehmen, der Trafo hätte keine Verluste, so müssten wir auf der Sekundärseite die gleiche Leistung haben. Und wenn wir die Leistungsformel und das Ohmsche Gesetz verbinden, so bekommen wir (P = U x U:R also umgestellt U Quadrat = P x R oder U = Wurzel P x R) Wurzel aus 0,52 x 5,2 = 1,6444V auf der Sekundärseite.
Primär hatten wir 52V, sekundär 1,6444. Das ergibt ein Verhältnis von 31,622776. Und diese Zahl ist die Wurzel aus 1000.
Das bedeutet, dass das Widerstandsverhältnis (hier 1:1000) jeweils das Quadrat des Spannungsverhältnisses ist.


Und gleich noch etwas:
Die Verzerrungen bei der Endstufe.
Wir haben mal den Sinus an eine Röhrenkennlinie (Kleinsignal-Triode) angelegt und festgestellt, dass wir da Verzerrungen bekommen. Wenn wir nun davon ausgehen, dass eine Pentode fast keinen Durchgriff hat, so ist die Ausgangsspannung praktisch das, was wir am Gitter einspeisen, solange die Kennlinie gerade ist. Bei hoher Gittervorspannung jedoch (negative Halbwelle am Gitter) geht die Röhre in den Sperrbereich. Und mehr als NULL Strom fliessen kann ja nicht. Hier ist also die Kennlinie nicht mehr gerade und damit entstehen Verzerrungen. Wenn das Verstärkungsverhältnis bei der positiven und negativen Halbwelle unterschiedlich ist, so entsteht hauptsächlich K2. Ist die Verstärkung jeweils in beiden Halbwellen gleich, aber einfach an den Pegelspitzen reduziert (abgeflachtes Ausgangssignal, fast wie Rechteck oder Clipping), so entsteht hauptsächlich K3. Dass K2 angenehmer ist als K3 hatte ich erklärt.
Soweit der Röhrenklirr der Eintaktstufe.
Betrachten wir den Ausgangsübertrager bei Eintakt, so hat auch dieser eine krumme Kennlinie, allerdings nicht wie die Röhre bei kleinen Strömen, sondern bei hohen. Irgendwann steigt die Magnetisierung nicht mehr an, obwohl der Strom zunimmt. Andererseits ist im Bereich von Null Strom der Trafo linear, nicht aber die Röhre.

Weil wir gerade so schön bei den Endstufen sind, noch etwas über deren Gittervorspannung. Ich habe die verschiedenen Möglichkeiten mal angetönt: Man kann die Gittervorspannung mit einem Katodenwiderstand erzeugen oder (nur bei Kleinsignalröhren) mit einem hohen Gitterbleitwiderstand oder über eine feste (fest eingestellte) Gitterspannung.

   
Zuerst zu Klasse A (Eintakt und Gegentakt).
Durch die Röhrenalterung verändert sich die Kennlinien-Steilheit und auch die Lage der Kennlinie, sodass die Röhre schon etwas früher sperrt.
Nimmt man ein Datenblatt zur Hand, so ist Steilheit und Kurvenverlauf auf eine neue Röhre abgestimmt. Wenn man also bei Klasse A eine feste Gittervorspannung wählt, und diese nach der Spannungsangabe oder dem Anodenstrom einer neuen Röhre einstellt, so hat man optimale Verhältnisse.
Ist die Röhre jedoch gebraucht, so liegt man bei Einstellung nach Spannung mit dem Strom zu tief, also zu nahe am Sperrbereich, sodass nicht mehr die ganze Kennlinienlänge ausgenutzt werden kann. Bereits bei relativ kleinen Pegeln bringt man die Röhre in den Sperrbereich, sodass erstens keine normale Leistung mehr möglich ist und die Schaltung zweitens sehr schnell klirrt.
Stellt man aber die Gittervorspannung nach Anodenstrom ein, so liegt man mit einer gebrauchten Röhre zu hoch, also zu weit rechts. Damit ist sehr bald bei der Ansteuerung ein Gitterstrom die Folge, was die Verstärkung der Vorröhre reduziert (der Gitterstrom wirkt wie ein zusätzlicher Anodenwiderstand, was die Verstärkung deutlich reduziert). Dies führt eindeutig zu Klirr. Weiter wird der Bereich richtung "sperren" der Röhre nicht in voller Länge genutzt, sodass wiederum weniger Leistung zur Verfügung steht und letztlich ist der Strom für die alte Röhre einfach zu hoch, sodass sie noch schneller "ausgelutscht" wird.
Es ist daher dringend zu empfehlen, den Herstellerangaben zu folgen und Klasse A mit einem Katodenwiderstand mit grossem, parallel geschaltetem Elko zu betreiben.

In diesem Zusammenhang ist zu erwähnen, dass es einen Röhrenverstärker (Eintakt) gibt, zu welchem ein separater Gittervorspannungs-Gleichrichter bestellt werden kann (von einem anderen Anbieter?). Dieser behauptet, damit die Verstärkerleistung zu erhöhen. Sicher fällt am Katodenwiderstand rund 7V ab. Aber die Reduktion der Anodenspannung um diese 7V hat kaum Einfluss auf die Ausgangsleistung. Diese sinkt gerade mal um 0,17W. Der Anbieter verspricht aber eine Leistungssteigerung von rund 1,3W, was absoluter Blödsinn ist.

Es muss also gesagt werden, dass Klasse A nur mit dem Katodenwiderstand optimal funktioniert.

Bei Klasse AB (AB PP) ist der Arbeitspunkt tiefer angesiedelt. Die Grafik zeigt eigentlich den Arbeitspunkt dort, wo er mit Aussteuerung zu liegen kommt. Hier übernimmt ebenfalls ein Katodenwiderstand mit Elko die Gittervorspannung. Dies hat seinen guten Grund.
Wenn wir nochmals Klasse A betrachten, so haben wir normalerweise eine Aussteuerung im linearen Bereich. Das bedeutet, dass der Anodenstrom in Ruhe beispielsweise 48mA beträgt und sich jetzt zwischen 15mA (also 33mA weniger) und 81mA (also 33mA mehr) bewegt. Der mittlere Strom ist immer noch 48mA. Damit bleibt die Katodenspannung bei diesem Wert stabil.

Wenn wir aber Klasse AB betrachten, so ist der Arbeitspunkt tiefer. Ohne Aussteuerung hätten wir 38mA (mal angenommen). Und da ja die Röhre mehrheitlich nur die halbe Zeit arbeitet, kann man sie etwas höher aussteuern. Man kann sie also bis 96mA betreiben. Das bedeutet zuerst mal, dass der Katodenwiderstand so berechnet wird, dass im Ruhefall eine Spannung abfällt, die einen Strom von 38mA zur Folge hat. Er ist folglich etwas grösser als bei der Klasse A, weil der Strom kleiner und die Spannung grösser ist.
Aber wenn wir die Röhre aussteuern, so haben wir einerseits eine Stromerhöhung (von 38 auf 96mA) von 58mA, andererseits aber maximal eine Stromreduktion (bis NULL) von 38mA. Folglich wird der Arbeitspunkt bei Aussteuerung verschoben in Richtung kleinerer Ruhestrom oder grössere Gittervorspannung oder Klasse B. Damit erreicht man, dass bei kleinen Leistungen die Endstufe noch im Klasse A Betrieb läuft, weil beide Röhren noch im linearen Kennlinienbereich laufen. Bei mittleren Leistungen liegen die Arbeitspunkte so (wie in der Grafik), dass die linearen Bereiche noch aneinander stossen und folglich keine (nennenswerten) Übernahmeverzerrungen entstehen. Und bei hohen Leistungen verschiebt sich der Arbeitspunkt nach B. Jetzt entstehen zwar Übernahmeverzerrungen, aber durch die höhere Leistung sind sie im Verhältnis zum Pegel unbedeutend. Daher haben wir bei Klasse AB die Vorzüge der Klasse A, nämlich geringen Klirr bei kleinen und mitlleren Leistungen und trotzdem die hohe Ausgangsleistung der Klasse B.

Wichtig ist bei der Klasse AB, dass der Katodenelko eine vernünftige Grösse hat. Ist er zu klein, so entstehen Verzerrungen, denn die Röhren arbeiten bis in den B-Bereich, sodass Anoden- und Schirmgitterstrom recht unlinear reagieren. Ist der Elko aber zu gross, so bleibt die (nach einer Vollaussteuerung) hohe Katodenspannung zu lange erhalten und damit bleiben nach so einem Vorgang die Übernahmeverzerrungen ebenfalls erhalten. Ebenso steigt die Katodenspannung zu wenig rasch an, sodass die Ausgangsleistung begrenzt wird. Als Faustregel kann man annehmen, dass Rk und Ck eine Grenzfrequenz von etwa 3 bis 5 Hz haben sollten (Fg = 1: [2Pi x R x C] ).

Bei Klasse B funktioniert nur noch die fest eingestellte Gittervorspannung. Wollte man mit einem Katodenwiderstand eine Gittervorspannung erzeugen, die einem Anodenstrom von 10mA entspricht, müsste dieser Widerstand gut 5 mal grösser sein als bei Klasse A. Unter Aussteuerung bekäme man dann aber eine Gittervorspannung, welche die Röhre die längste Zeit sperren würde. Wir hätten mit der Aussteuerung eine riesige Übernahmeverzerrung.
Es ist daher unabdingbar, Klasse B mit fester Gittervorspannung zu betreiben. Wie hoch der Ruhestrom mindestens sein soll, hängt vom Verlauf der Kennlinie und von der Verstärkerschaltung ab. Je kleiner der Ruhestrom, desto höher wird die Ausgangsleistung. Aber mit kleinem Ruhestrom steigt auch der Klirr bei kleinen Leistungen durch die Kennlinienkrümmung beim Sperrbereich. Ist die krumme Kennline kurz, kann man den Strom klein halten. Ist der gekrümmte Teil lang, steigen diese Verzerrungen.
Hat die Schaltung eine relativ kräftige Gegenkopplung, kann diese einen grossen Teil der Verzerrungen kompensieren, sodass man mit tieferem Strom arbeiten kann, ist keine Gegenkopplung vorhanden, verbietet sich der B Betrieb durch die hohen Verzerrungen von selbst.

Einstufige Schaltungen

Davor ein paar Worte zur Verstärkungsberechnung.
Es gibt Formeln, mit denen man die Wirkung des Katodenwiderstandes auf die Verstärkung berechnen kann. Nur gibt es da ein paar Einschränkungen. Im Datenblatt sind alle Parameter für einen bestimmten Fall angegeben und teils gibt es auch Kennlinien, wie sich z. B. der Durchgriff als Folge von Anodenspannung oder –Strom ändert.
Betrachtet man die Berechnungsformeln, so ist für die Wirkung des Katodenwiderstandes Mü entscheidend. Das Mü, das man nun in den Datenblättern findet, hat aber möglicherweise nicht viel mit dem Mü zu tun, das in der konkreten Schaltung und den konkreten Werten wirksam wird. Ist da ein Fehler von 30% vorhanden, kann auch die berechnete Verstärkung um bis zu 30% falsch sein. Aus diesem Grund verzichte ich auf die Auflistung der nötigen Formeln. Wer über entsprechende Unterlagen verfügt und sich auskennt, kann diese Formeln finden und anwenden.

Bei Vorverstärkern werden bisweilen einstufige Schaltungen eingesetzt, also Schaltungen, die nur über ein Röhrensystem verfügen. Das können Trioden oder auch Pentoden sein.
Wie bereits früher erwähnt, kann man bei Trioden zur Frequenzganglinearisierung (was kaum nötig ist) und vor allem zur Klirr-Minderung eine Gegenkopplung einsetzen, indem man den Katodenwiderstand nicht mit einem Kondensator überbrückt, sondern den entstehenden Spannungsabfall dazu nützt, das ankommende Steuersignal etwas zu schwächen. Das bedeutet, dass die Verstärkung der Stufe nicht mehr so hoch ist wie ursprünglich, dass andererseits aber der Klirr gemildert werden kann.
Wir haben auch gesehen, dass eigentlich die Spannung am Katodenwiderstand dem Spannungsverhältnis Rk zu Ra entspricht. Nur ist dies nicht automatisch die Verstärkung. Eine ECC83 hat im Leerlauf (also mit überbrücktem Rk) eine tatsächliche Verstärkung von etwa 70, während das Widerstandsverhältnis (Rk 2,2k, Ra 220k) 1:100 ist.
Zu erwähnen ist dass ein Katodenwiderstand den Ri der Schaltung vergrössert, sie also für Lasten empfindlicher macht. Dies ist bei Ausgangsschaltungen von Geräten (Vorverstärkern) zu beachten.

Neben der Gegenkopplung durch den Katodenwiderstand, die man vorteilhafterweise nur bei Trioden so betreibt, gibt es die Möglichkeit, das Gittersignal durch Rückführung des Anodensignals zu verringern.
   
Diese Variante funktioniert bei allen Röhrentypen. Das Nutzsignal wird über R1 dem Gitter zugeleitet. Es wird verstärkt und erscheint mit umgekehrter Phase an der Anode. Nun wird das Anodensignal über R2 wieder dem Gitter zugeführt und arbeitet damit gegen das ankommende Steuersignal. Die Verstärkung der Stufe ergibt sich bis zu einem gewissen Grad aus dem Verhältnis von R2 zu R1. Auch hier stimmt die Rechnung nur, solange die tatsächliche Verstärkung deutlich unter dem theoretischen Maximum (hier bei etwa 20) bleibt.

Unterschiede der beiden Gegenkopplungsarten:
Im ersten Fall sprechen wir von einer Stromgegenkopplung, weil der Röhrenstrom am Katodenwiderstand eine Spannung erzeugt, welche die tatsächliche Steuerspannung verringert.
Diese Schaltungsart hat einen sehr hohen Eingangswiderstand (entsprechend dem Gitterableitwiderstand), wenn dieser in üblicher Weise direkt auf Masse führt.

Wenn wir uns hingegen die Schaltung (hier mit der Pentode) ansehen, so wird der Eingangswiderstand relativ klein, im Wesentlichen der Wert von R1. Andererseits, wenn wir den Ausgang belasten, sinkt die Anodenspannung und damit nimmt die Gegenkopplung ab, sodass die Röhre mehr verstärkt und das Manko auszugleichen versucht. Hier ist also nicht nur der Eingang relativ niederohmig, sondern auch der Ausgang.


An dieser Stelle eine Schaltung, die tatsächlich so zum Einsatz kommt.
   
Hier geht es nicht um eine Gegenkopplung, sondern darum, mit gleich grossen Widerständen (die beiden 33k) zwei gleich grosse, aber gegeneinander invertierte Signale zu erzeugen, um damit die Endröhren einer Gegentaktendstufe anzusteuern.

Das waren schon alle üblichen einstufigen Schaltungen, die wirklich zum Einsatz kommen.

Noch ein paarAnmerkungen zur Gegenkopplung:
Natürlich kann eine Gegenkopplung erst im Nachhinein wirken. Sie korrigiert also zu spät. Wenn sie aber schnell genug ist, so ist der entstandene Fehler erstens von der Signalstärke her, andererseits aber auch von der Dauer weit unter der Hörschwelle. Dies gilt zumindest bei Vorstufenschaltungen. Bei Endstufen begrenzt der Trafo die mögliche Geschwindigkeit. Somit ist es denkaber, dass eine Korrektur erst verspätet und damit hörbar eingreift. Will man nun eine perfekte Schaltung bauen, so ist auf diese Verzögerung zu achten. Es macht also Sinn, eine Schaltung zu entwickeln, die für Trafo und Endröhren eine relativ geringe Gegenkopplung fordert, bei welcher aber die vorgehenden Stufen fehlerfrei arbeiten. Dies hin zu bekommen ist nicht ganz einfach und es braucht schon einiges an Erfahrung, diese optimale Schaltung zu entwickeln.

An dieser Stelle kann man noch eine Schaltung erwähnen, die praktisch nie einstufig zum Einsatz kommt, es ist die Endröhrenschaltung mit einer Pentode, die als Triode betrieben wird.
Diese Schaltungen sollen hier noch erwähnt werden, weil wir ja die üblichen Endstufen auch schon bisher behandelt haben, obwohl sie normalerweise mehrstufig sind.
Nehmen wir zuerst mal die Triodenschaltung.
Hierbei werden Anode und Schirmgitter verbunden.
Da das Schirmgitter auch einfach mal ein Gitter ist, kann man damit den Anodenstrom ebenfalls steuern. Wenn also das Schirmgitter positiver ist, steigt der Röhrenstrom (Anodenstrom UND Schirmgitterstrom) an. Verbindet man diese zwei Elektroden, so entsteht die Rückwirkung, also der Durchgriff genau wie bei der Triode. Das bedeutet, dass man die Röhre eigentlich weiter aussteuern müsste, um die selbe Stromänderung zu bekommen wie im Pentodenbetrieb (sie hat weniger Verstärkung).
   
Die Kurvenschar zeigt nicht mehr das typische Pentodenverhalten mit steilem Anstieg und flachem weiterem Verlauf (was einen grossen Ri bedeutet), sondern jenen der Triode. Die relativ steil ansteigenden Kurven verdeutlichen den kleinen Innenwiderstand dieser Betriebsart.

Man könnte sich jetzt fragen, wozu man eine Pentode als Triode schalten soll. Tatsache ist, dass die Ia/Ug-Kennlinien (bei konstanter Anoden- und Schirmgitterspannung) nicht verändert wird. Das heisst, dass der Sperrpunkt der Röhre unverändert bleibt und auch die Krümmung im Bereich der Sperrung ist gleich.
Durch den Durchgriff haben wir aber im praktischen Betriebsfall eine geringere Verstärkung. Wir müssten also die Röhre weiter assteuern können, um die selbe Stromänderung zu bekommen. Dies ist aber aufgrund der Gegebenheiten der Ia/Ug-Kennlinie nicht möglich. Wir bekommen also mit Sicherheit weniger Leistung.
Der Vorteil dieser Schaltungsart ist, dass wir zwar die selbe Kurvensteilheit (Ia/Ug) haben, aber wir haben einen deutlich stärkeren Durchgriff. Und nach Barkhausen muss demnach der Innenwiderstand der Röhre deutlich gesunken sein.
Wenn wir eine Endstufe ohne Gegenkopplung bauen, so haben wir bei Pentodenbetrieb einen hohen Ri (der Röhre) und damit einen geringen Dämpfungsfaktor. Es ist ja so, dass nur der Ri der Röhre den Ri der ganzen Schaltung (also den Dämpfungsfaktor) bestimmt. Und somit läuft ein Lautsprecher bei Pentodenbetrieb fast völlig unbedämpft, während er bei Triodenbetrieb doch eine gewisse (nicht all zu grosse) Dämpfung erfährt. Ist der Dämpfungsfaktor bei Pentode etwa 0,3 so ist er bei Triode immerhin 3.
Dies hat Einfluss auf den Klang, wie stark und in welcher Weise hängt vom Lautsprecher ab.
Zitieren
richi44
Unregistered

 
#4
10.08.2009, 14:21

Betrachten wir nochmals die obige Triodenkurve, so sehen wir, dass die Linien nicht gerade verlaufen. Die vorhandene Krümung deutet auf Verzerrungen hin, ebenso der etwas unterschiedliche Abstand der einzelnen Linien.
Wenn wir das mit der reinen Pentodenkurve vergleichen
[Bild: yyp4ducf.gif]
so haben wir hier ebenfalls eine leichte Krümmung der einzelnen Linien, wobei deren Verlauf völlig anders aussieht. Er ist pentodentypisch rasch ansteigend und nachher relativ flach.

Sicher ist, dass weder die eine noch die andere Kurvenschar ideal ist. Sinnvoll wäre etwas im Stil der Triode, aber mit geringerer Steilheit und möglichst ohne Krümmung. Damit hätte man weniger Verzerrungen und einen etwas kleineren Ri, verbunden mit einem grösseren Durchgriff, was aber je nach Röhre noch keine Leistungseinbusse mit sich bringen muss.
Eine solche "Verheiratung" der Kurven ist denkbar, wenn man das Schirmgitter nicht an eine feste Spannung legt, es aber auch nicht mit der Anode verbindet, sondern der Schirmgitterspannung einen Teil der Anodenspannung zuführt. Diese Schaltungsart nennt sich "Ultralinear".
[Bild: x7whivxm.gif]
Dabei ist natürlich nicht der Fequenzgang ultra-linear, sondern die Kurven werden linearisiert, was zu geringerem Klirr führt. Voraussetzung ist, dass die Vorstufe eine entsprechend höhere Steuerspannung liefern kann, was aber üblicherweise kein Problem darstellt.
Wie hoch der Wechselanteil der Schirmgitterspannung sein soll, wo also der Trafo-Abgriff sich befindet, hängt von der Röhre ab. Je nach Kurvenkrümmung bei Triode oder Pentode kann man den Anteil so festlegen, dass die Kurven möglichst gerade werden.
In der Praxis wird man sich mit Vorteil an die Herstellerangaben, also die Röhrendatenblätter halten. Meist findet man da aber keine Angaben über den Ultralinearbetrieb. Das bedeutet, dass man sich an die Angaben der Trafohersteller halten muss. Wenn diese beispielsweise einen Übertrager für EL84 in Ultralinear anbieten, so kann man davon ausgehen, dass der Abgriff am richtigen Ort sitzt und den besten Kompromiss bietet.
Steht da aber nur :"Ultralinear-Übertrager" ohne Angabe der Röhre, so ist die Sache mit Vorsicht zu geniessen. Es ist durchaus möglich, dass man mit dem verwendeten Abgriff zwar eine gewisse Verbesserung des Klirrs erreicht, jedoch nicht das Maximum erzielt.

Generell gilt, dass man sich sowohl für Vorstufen als auch für Endstufen an die Angaben der Datenblätter halten sollte. Da findet man jeweils alles, was in der gewünschten Schaltung Sinn macht. Man muss somit nicht selbst experimentieren. Wollte man eine Schaltung selbst entwickeln, müssten umfangreiche Messungen voraus gehen. Es genügt nicht wie bei einem Transistor, den Ruhestrom festzulegen. Man muss diesen am richtigen Ort der Ia/Ug-Kennlinie legen, also muss man erst mal diese Kurve haben. Und da bei einem Verstärker ja die Anodenspannung nicht konstant ist (sonst kommt ja kein Ton raus), sollte man diese Kennlinie mit einem entsprechenden Arbeitswiderstand bestimmen. Das ist mit üblichen Röhrenmessgeräten schon nicht mehr möglich oder sehr aufwändig, weil der Spannungsabfall am Ra simuliert werden müsste.
Noch komplexer wird die Geschichte bei der Pentode, wenn die Einflüsse des Schirmgitters auch berücksichtigt werden müssen.
Ich habe darum hier mal (die Kurve mit dem eingezeichneten Sinus) den Einfluss desRa in eine Kurve eingezeichnet. Und wenn man das tut, landet man letzten Endes da, wo die Vorgaben der Hersteller angesiedelt sind.

Und an dieser Stelle nochmals ein generelles Wort zu Röhrenschaltungen: Es ist Unsinn, Röhren durch andere Typen zu ersetzen, ohne die Röhrendaten zu beachten. Wer also eine ECC83 durch eine ECC 81 oder 82 ersetzt, handelt unklug. Es kann soweit gehen, dass die Röhren beschädigt werden und es ist mit Sicherheit so, dass sie nur schlechtere Ergebnisse liefern können, weil es wie bisher geschildert, Zusammenhänge gibt, die für die optimale Schaltung zu berücksichtigen sind. Wer einfach wild stöpselt, missachtet diese "Gesetze" und muss sich nicht wundern, wenn er dafür Lehrgeld bezahlen muss.
Und wer das Gefühl hat, dass die falsche Röhre am falschen Platz besser klingt, sollte sich mal die Messkurven ansehen. Und anschliessend sollte er sich mal Musik auf einer guten Anlage anhören. Es kann ja nicht der Zweck eines Röhrengerätes sein, Klirr auf Teufel komm raus zu erzeugen, nur damit einige ungeschulte Ohren ihre Freude haben...

Einige Hinweise

Bei Endröhren werden meist die Schirmgitter über Widerstände an die Speisung angeschlossen. Dies hat Vorteile auf die Stabilität der Schaltung. Schwingneigungen werden so reduziert. Weiter kann der unterschiedliche Spannungsabfall in Abhängigkeit des Schirmgitterstroms zu einer Kennlinien-Linearisierung führen (ähnlich wie Ultralinear). Wenn also in einem Schema solche Widerstände eingebaut sind, sollten sie auch bei einem Nachbau verwendet werden.

Ebenfalls findet man bei Endröhren fast immer einen Widerstand vor dem Steuergitter. Es versteht sich, dass die einzelnen Gitter und Anodenblech und so Zeugs untereinander Kapazitäten bilden. Diese führen bei bestimmten Frequenzen zu Phasendrehungen, sodass eine EL84 unter Umständen auf UKW schwingen kann.
Verwendet man diesen Schwingschutzwiderstand (meist 1k, direkt an den Röhrensockel angelötet!, also keine lange Zuleitung zum Gitter), ist die Gefahr beseitigt. Was auf den ersten Blick sinnlos erscheint, macht also durchaus Sinn.

Bei Kleinsignal-Pentoden wird das Schirmgitter praktisch immer über einen Widerstand an die Speisung gelegt. Damit wird erreicht, dass in fast allen Betriebsfällen die Schirmgitterspannung tiefer liegt als die Anodenspannung, was ebenfalls zu einer Linearisierung führt. Allerdings wird das Schirmgitter mit einem Kondensator mehr oder weniger fest gegen Masse gebunden, sodass sich eine im Mittel tiefere Spannung als an der Anode einstellt, diese Spannung aber nicht mit der Tonspannung mitgeht, sondern auf jenem Mittelwert bleibt. Es hat sich gezeigt, dass diese Schaltungsart die besten Resultate bezüglich Linearität und Klirr liefert.

Als Faustregel kann gelten, dass bei einer Triode der Arbeitswiderstand 2 bis 3 mal dem Innenwiderstand entspricht, bei einer Pentode ist dieser Wert bei 0,1 bis 0,2 mal Ri.

Man liest immer wieder, dass bei einem Vorverstärker ein Katodenfolger-Ausgang (Anodenbasisschaltung, Eingang am Gitter, Ausgang an der Katode) verwendet werde, weil man damit einen kleinen Ausgangswiderstand erreiche.
Dies ist nur bedingt richtig. Und es gilt im ähnlichen Sinn auch für normale Verstärkerstufen, genau so für Transistorstufen.
Wenn man eine normale Stufe verwendet,

   
so kann man den Ausgang an der Anode (nach einem Kopplungskondensator, der nur den Ton und nicht die Gleichspannung durchlässt) mehr oder weniger belasten. Nehmen wir mal an, wir hätten an der Anode eine Gleichspannung von 120V und bekämen jetzt eine Tonspannung (unbelastet) von 12V. Nach dem Kondensator hätten wir Null Volt Gleichspannung und ohne Last +/-6V Ton.
Wenn wir eine Last anschliessen, so kann die Röhre soviel Strom ziehen, wie es ihr Innenwiderstand erlaubt. Das bedeutet bei einer ECC83: Wenn wir eine Last von 62k ansetzen und die Röhre hat einen Ri von 62k, so wird die negative Halbwelle halb so gross wie ohne Last. Die positive Halbwelle am Ausgang bedeutet aber, dass die Röhre in den Sperrbereich geht und somit kann nur so ein Strom fliessen, den der Arbeitswiderstand von 220k zulässt. Somit wird die positive Halbwelle bedeutend kleiner.
Das gleiche geschieht natürlich auch, wenn wir das Signal an der Katode abnehmen. Dort ist es die positive Halbwelle, die relativ unverändert bleibt (diese Schaltung ergibt in sich bereits eine Gegenkopplung), weil der Strom fast beliebig sein könnte, während die negative Halbwelle nur vom Strom des Katodenwiderstandes (und damit durch seinen Wert) bestimmt wird.
Mit solchen Ausgangsstufen sind tiefe Ri möglich, aber nur, wenn der maximalstrom nicht erreicht wird.


Mehrstufige Schaltungen
   
Angenommen, wir hätten hier eine ECC83, die ja laut Datenblatt pro Stufe rund 60 fach verstärkt (mit nicht überbrücktem Katodenwiderstand). Wenn wir also am Eingang eine Spannung von 0,01V anlegen würden, bekämen wir an der ersten Anode 60 mal 0,01V = 0,6V. Und an der zweiten Anode dann diese 0,6V mal 60 = 36V.
Die Totalverstärkung wäre in dem Fall also 3600.
In der Praxis wollen wir aber eine Verstärkung von 100. Also setzen wir eine Gegenkopplung ein. Diese wird hier aus R1 und R2 gebildet. Wenn wir annehmen, wir hätten pro Stufe eine unendlich hohe Verstärkung, dann müsste die Spannung an R1 gleich der Eingangsspannung sein. Das wären in unserem Beispiel 10mV. Und die Ausgangsspannung müsste das hundertfache sein, also 1000mV. Dann müsste die Spannung über R2 990mV sein. Oder anders gesagt: R1 plus R2 sind 100 (Verstärkung) mal R1. Diese Rechnung stimmt in unserem konkreten Fall auch noch, weil 3600 fache Verstärkung wesentlich grösser ist als die angestrebten 100.
Je grösser diese Differenz, umso näher kommt die Wirklichkeit unserer Rechnung.

Diese Art der Gegenkopplung ist die Üblichste. Man verwendet sie beispielsweise bei Mikrofonverstärkern, aber auch bei Plattenspieler-Entzerrern. Dort ist sie durch das Einsetzen von Kondensatoren frequenzabhängig. R2 wird dort also durch mehrere Widerstände und Kondensatoren gebildet.
Prinzipiell gleich ist die Schaltung auch, wenn das Gegenkopplungssignal nicht direkt von der zweiten Anode an die erste Katode geleitet wird, sondern wenn es von der Sekundärseite eines Ausgangstrafos stammt. Die Verstärkungsberechnung bleibt sich natürlich gleich, denn wir kennen ja die Ausgangsspannung nach dem Trafo. Statt der zweiten Triode unserer Zeichnung hätten wir da dann die Endröhre mit Ausgangstrafo, allenfalls auch noch die Phasendrehschaltung und zwei Endröhren.

Jetzt könnte die Vorröhre der Endstufe aber auch eine Pentode sein. Und da haben wir ja gesagt, dass wir die Stromgegenkopplung nicht wollen, weil der Katodenstrom nicht dem Anodenstrom entspricht und somit Verzerrungen resultieren.
   
Wir möchten aber trotzdem die Gegenkopplung auf die Katode, weil eine Gegenkopplung aufs Gitter den Eingangswiderstand senkt.
Abhilfe schafft ein zusätzlicher Widerstand. Wir können den eingezeichneten Katodenwiderstand verkleinern (von 2,2k auf 1,8k) und den Katodenelko parallel dazu schalten. Die ganze Geschichte geht aber nicht nach Masse, sondern wir legen in Reihe mit dieser Kombination 400 Ohm. (In unserer Zeichnung müssten wir einfach Rk, Ck Elko und Ck Folie von der Masse trennen, diese drei Punkte verbinden und dazu in Reihe den Zusatzwiderstand gegen Masse einzeichnen) Damit haben wir für die Gittervorspannung den selben Widerstandswert (390 Ohm reichen auch als Zusatzwiderstand), für den Wechselspannungsabfall aber nur noch die 400 Ohm. Damit ist die Stromgegenkopplung um 80% verringert und der entstehende Klirr vernachlässigbar.
Für die Gegenkopplung ist jetzt dieser Zusatzwiderstand unser R1 und entsprechend muss dann R2 (vom Ausgangstrafo her) berechnet werden.

Bei den einstufigen Schaltungen haben wir eine Phasendrehschaltung gezeichnet, die mit gleichen Anoden- und Katodenwiderständen arbeitet und so an diesen gleich grosse Spannungen erzeugen, aber invertiert.
Nun kann es sein, dass wir Endröhren verwenden, die eine höhere Steuerspannung verlangen. In diesem Fall reicht die einstufige Schaltung nicht mehr. Man kann sich ja vorstellen, dass wir eine Betriebsspannung von 200V hätten und die Phasendrehröhre voll durchsteuern. Also könnte im einen Maximum (Röhre sperrt) Uk Null und Ua = Ub sein. Und im anderen Extrem wären Uk und Ua identisch (halbe Ub). Wir hätten also maximal eine Spannung von (Spitze zu Spitze) 100V.
Wenn wir aber die Phasendrehschaltung zweistufig bauen, kann die Ausgangsspannung im Extremfall jeweils 200V Peak-Peak sein.
Dazu gibt es drei Möglichkeiten.

   
Bei der ersten Schaltung haben wir einen gemeinsamen Katodenwiderstand Rk, der in erster Linie für die Gittervorspannung beider Röhren zuständig ist. Das könnte bei einer ECC83 ein Widerstand von 1k sein. Dieser Rk führt aber nicht an Masse, sondern das Massepotenzial wird über einen Zusatzwiderstand Rz hergestellt. Dieser hat einen Wert von rund 22k. Die Gitterableitwiderstände Rg sind zwischen dem Katodenwiderstand und Rz angeschlossen.
Das Steuersignal der oberen Röhre bewirkt im Rk und Rz eine Stromänderung und damit eine Spannungsänderung. Die beiden Katoden folgen also recht genau der Gitterspannung. Und da das Gitter der unteren Röhre für Wechselspannung (über den Kondensator) an Masse liegt, wird diese zweite Röhre über die Katode angesteuert. Damit erreicht man in der oberen Röhre ein invertiertes Ausgangssignal, in der unteren ein nicht invertiertes. Mit dieser Schaltung ist erstens eine recht gute Symmetrie gegeben, zweitens sind die Impedanzverhältnisse für beide Endröhren gleich und drittens fehlt der Betriebsspannung nur der Spannungsabfall an Rz, sodass in unserem Beispiel eine Aussteuerung von rund 180V möglich wäre.

   
Bei dieser Variante ist das Gitter der unteren Röhre nicht an Masse, sondern es wird eine virtuelle Masse gebildet. Sofern die beiden Ausgangssignale gleich sind, aber gegeneinander invertiert, ergibt sich keine Gitterspannung, da R1 und R2 gleich gross sind. Dieser Punkt entspricht also Masse.Wenn aber die beiden Ausgangssignale nicht gleich gross sind, entsteht am Gitter der unteren Röhre ein Signal, das entweder ihr Ausgangssignal verstärkt oder dämpft, je nach Erfordernis. Mit dieser Schaltung wird die erste Variante noch besser symmetriert.
Da wir auch hier den Rz mit seinem Spannungsverlust haben, ist die maximale Ausgangsspannung ebenfalls etwas unter der Betriebsspannung.
    Bei der dritten Variante haben wir die Verkopplung fast nur durch R1 und R2. Hier findet kaum eine Katodenkopplung statt und auch die Gegenkopplungswirkung des nicht überbrückten Katodenwiderstandes ist bescheiden. Hier ist es also möglich, dass sich im Lauf der Röhren-Lebensdauer die Symmetrie verschiebt. Aus diesem Grund wurde R1 in die Teilwiderstände R1a und R1b aufgeteilt, sodass die Symmetrie nachgeglichen werden kann. Der Vorteil dieser Schaltung ist, dass praktisch kein Spannungsverlust besteht und somit die maximale Signalspannung zur Verfügung steht.

Das sind jetzt spezielle Schaltungen, die nicht eigentlich der Verstärkung dienen, sondern bei der Gegentaktendstufe zur Ansteuerung der Endröhren eingesetzt werden. Je nach Endröhre ist der einen oder anderen Schaltung zu bevorzugen.
Zwei Gegentaktschaltungen.

Weil wir ja gerade die Phasendreh-Schaltungen angesehen haben, hier zwei mögliche Gegentaktverstärker.

Die erste Schaltung benutzt die Phasendrehstufe der Variante 2, also mit hochgelegter Katode und zusätzlicher Symmetrierung. Die verwendete Röhre ist eine ECC83. In der Endstufe sind zwei EL84 eingesetzt, im Klasse AB-Betrieb.
Die Speisung beträgt an den Endröhren 300V, an der Phasendrehröhre rund 270V.

Die beiden zusätzlichen Katodenwiderstände bei den Endröhren erhöhen etwas die Stabilität der Schaltung, ohne negative Auswirkungen zu haben.
Der Ausgangsübertrager ist auf eine Ausgangsimpedanz von 8 Ohm ausgelegt, was für eine Ausgangsleistung von 17W eine Eingangsspannung am Verstärker von 3,71V bedeutet. Die Schaltung verlangt daher nach einer Vorverstärkerschaltung, die die nötige Spannung liefert. Falls der Ausgang mit 4 Ohm (anderer Trafo) geplant würde, wäre die volle Leistung bei einer Eingangsspannung von 2,62V erreicht. Die Primärimpedanz des Trafos ist 8k Raa.
   
   
Die zweite Schaltung ist etwas "Besonderes". Hier wird die Phasendrehung der Endröhren gleich von diesen selbst übernommen.

       
Die beiden EL84 werden in Klasse A betrieben. Damit steht nur eine Leistung von knapp 12W zur Verfügung. Klasse A ist nötig, da die Phasendrehung wie erwähnt von den Endröhren selbst durchgeführt wird. Die Schaltungsart enspricht weitgehend jener der zweiten Phasenvariante. Die hochgelegten Katoden und die zusätzliche Symmetrierung über das Gitter besorgen die nötige Invertierung.

Der Ausgang ist für einen Trafo mit 8 Ohm vorgesehen. Das ergibt eine Eingangsspannung der Schaltung von 478mV. Die Primärimpedanz sollte bei 10k Raa liegen. Die Betriebsspannung ist mit 250V optimal.


Hier jetzt eine Eintaktschaltung mit den Röhren EF86 und EL84.
Für 5W an 8 Ohm ist hier eine Eingangsspannung von rund 92mV erforderlich. Die Speisung ist mit 250V vorgesehen, der Ausgangstrafo hat primär eine Impedanz von 5,2k
   
Um sich mit der Gegenkopplung der EF86 keine Probleme einzuhandeln, ist die Katode über 100 Ohm hochgelegt.

Die bisher aufgeführten mehrstufigen Schaltungen waren alles weitgehend übliche Konstruktionen (mit Ausnahme der Gegentaktschaltung, bei welcher die Endröhren selbst die Phasendrehung übernehmen).
Neben diesen gebräuchlichen Schaltungen kennt man auch Konstruktionen, bei welchen zwei Röhren in Serie geschaltet sind. Dies kann eine SRPP-Stufe sein (Serie-Gegentakt) oder eine Cascodeschaltung.

Bevor wir zu den Serieschaltungen von Röhren kommen, noch kurz eine Bemerkung. Wir haben bisher nicht vom Röhrenrauschen gesprochen. Die Elektronen verlassen die Katode nicht in einem kontinuierlichen Strahl, sondern etwa so, wie Wasser in einem Topf kocht, so sprudeln die Elektronen. Je nach Katodenkonstruktion kann man die Emission gleichförmiger gestalten oder halt das Sprudeln in Kauf nehmen.
Weiter führt jede ungleichmässige Geschwindigkeit der Elektronen zu unterschiedlichen Energiepotenzialen und damit zu Rauschen. Da die Geschwindigkeit von den Spannungen an den verschiedenen Elektroden abhängt, kann sie sich stark ändern. Sicher ist, dass Röhren mit mehreren Gittern prinzipiell stärker rauschen als solche mit wenigen Elektroden im Innern. Es hängt aber stark von konstruktiven Merkmalen ab, wie stark sich das Rauschen auswirkt. So hat eine E810F (Pentode mit 3 Gittern) deutlich weniger Rauschen als die Triode E88CC. Und diese ist wieder rauschärmer als eine ECC81.
Zusätzlich ist das Rauschen frequenzabhängig. Eine E88CC hat ein deutlich geringeres Rauschen im Hochfrequenzbereich als eine ECC83. Ob sie aber letztlich im NF-Bereich, also in unserem Toneinsatz tatsächlich weniger rauscht, ist eine andere Frage. Da sie im NF-Einsatz eine deutlich geringere Verstärkung aufweist als die ECC83 kann dies in der kompletten Schaltung dazu führen, dass das Rauschen mit der rauscharmen Röhre grösser ist. Da müsste man direkt zu einer Trickschaltung greifen, der Cascode-Schaltung.
   
Die Prinzipzeichnung zeigt eine Triode (die untere), die normal angesteuert wird. Die veränderliche Gitterspannung (Änderung durch das Tonsignal) hat eine Stromänderung zur Folge.
Das Gitter der oberen Triode liegt an einer Teilspannung (an der halben) der Betriebsspannung. Folglich liegt die Katode ebenfalls ungefähr auf dieser Spannung. Da die Gitterspannung festgelegt ist, ist auch die Katodenspannung stabil.
Das hat zur Folge, dass logischerweise auch die Anodenspannung der unteren Triode praktisch stabil bleibt. Und da es keine Anoden-Wechselspannung gibt, gibt es auch keinen Durchgriff. Der Strom der unteren Röhre hängt also nur noch vom Eingangssignal und der Steilheit ihrer Ia/Ug-Kurve ab.

Da in einer Serieschaltung nur EIN Strom möglich ist, muss folglich in der oberen Triode der selbe Strom fliessen. Und dieser fliesst auch durch den Arbeitswiderstand. Und damit entsteht da eine Ausgangsspannung, die verstärkt ist.

Da wir ähnlich einer Pentode einen sehr geringen Durchgriff haben, ist die Verstärkung der unteren Triode auch gleich gross wie bei einer Pentode mit gleicher Kennlinien-Steilheit. Und da die obere Triode stromgesteuert ist, hat sie praktisch kein Rauschen, jedenfalls bis in sehr hohe Frequenzbereiche. Dies, weil das Rauschen eine Änderung der Katodenspannung der oberen Röhre zur Folge hat und damit einmal das Rauschen fast vollständig gegengekoppelt wird und zweitens diese Rauschspannung über den Durchgriff der unteren Röhre weiter zu einer Rauschminderung beiträgt. Man bekommt mit dieser Stufe folglich das Rauschen einer Triode bei der Verstärkung der Pentode.

Diese Schaltung wurde hauptsächlich in Fernsehempfängern in der Antennen-Eingangsstufe verwendet. Wie gross der Gewinn im NF-Bereich wäre, kann ich nicht sagen. Jedenfalls sind zumindest in der Unterhaltungselektronik derartige Schaltungen im NF-Bereich nicht verwendet worden.
SRPP-Schaltungen

Variante 1

Ich habe mal erwähnt, dass bei einem Katodenfolger (Anodenbasisschaltung) die Ausgangsimpedanz nicht für beide Halbwellen gleich ist. Dies, weil die Röhre beinahe beliebig Strom ziehen kann und somit die positive Halbwelle einen sehr geringen Innenwiderstand aufweist, wogegen die negative Halbwelle durch den Strom begrenzt wird, den der Katodenwiderstand zulässt. Dieser Wert kann nicht überschritten werden. Dieser Nachteil wird mit einer SRPP-Schaltung vermieden. Hier sind zwei Röhren in Serie geschaltet, ähnlich der Cascode-Schaltung. Nur wird in diesem Fall das Ausgangssignal zwischen den beiden Röhren abgenommen.
   
R1 und R2 sind die jeweiligen Widerstände, welche für jede Röhre die Gittervorspannung erzeugen.
Haben wir am Eingang eine positive Halbwelle, so zieht die untere Röhre Strom. Damit geht der Ausgang gegen "Low". Weil wir das Ausgangssignal nicht an der unteren Anode abnehmen, sondern an der oberen Katode, ergibt sich an R1 ein höherer Spannungsabfall, sodass die obere Röhre sperrt. Durch das Leiten der unteren und das Sperren der oberen Röhre haben wir den vollen Strom auf dem Ausgang.
Bei einer negativen Halbwelle sperrt die untere Röhre. Damit geht ihre Anodenspannung nach oben. Da diese Röhre sperrt, kann in R1 kein Strom mehr fliessen, sodass die Gittervorspannung der oberen Röhre NULL wird. Damit wird die obere Röhre voll leitend und ihre Katode geht nach "High". Jetzt haben wir also in der positiven wie negativen Halbwelle ein Röhrensystem, das leiten kann.
Wie hoch letztlich die Verstärkung wird, hängt vom Lastwiderstand ab. Man wird diese Schaltung daher nur mit einer Gegenkopplung betreiben.

Diese Schaltung, mit zwei EL86 bestückt, war einmal eine Philips-Endstufe. Das Besondere daran war, dass bei Verwendung von Lautsprechern mit einer Impedanz von 800 Ohm kein Ausgangsübertrager nötig war.


Nachfolgend ein paar Schaltungen, die zumindest im Ausgang eine SRPP-Stufe besitzen.
   
Bei dieser Schaltugn haben wir im Eingang eine Gitterbasisstufe. Das Gitter ist wechselspannungsmässig mit den 22 Mikrofarad an Masse gelegt und das Tonsignal wird über R1 (wir denken uns den Lautstärkeregler weg) auf die Katode geleitet. Dies ergibt eine Stromsteuerung der Röhre ECC83 und die Verstärkung entspricht dem Widerstandsverhältnis des Einkopplungswiderstandes R1 zum Arbeitswiderstand R2. Wir haben hier also eine Verstärkung von 10.
Das Ausgangssignal dieser Stufe gelangt an das Gitter der oberen SRPP-Röhre, welche als Katodenfolger arbeitet.
Da sich in ihrer Anodenleitung ein Widerstand befindet, entsteht je nach Last ein ändernder Strom in der Röhre und somit eine ändernde Spannung in diesem Widerstand. Diese ändernde Spannung steuert die untere Röhre, welche einmal durch ihren Katodenwiderstand gegengekoppelt ist und eine sich ändernde Anodenspannung die Katodenspannung der oberen Röhre beeinflusst und somit deren Stromfluss.
Der Trick dieser Schaltung ist, dass es sich eigentlich um eine normale Katodenfolgerschaltung handelt, wobei aber der Katodenwiderstand durch eine gesteuerte Röhre (das untere System) gebildet wird und somit sowohl die positive wie negative Halbwelle niederohmig wird. Die Verstärkung dieser Ausgangsschaltung beträgt 1.
Die gesammte Schaltung hat ohne Überalles-Gegenkopplung einen sehr geringen Klirr, was sonst bei ungegengekoppelten Schaltungen nicht der Fall ist.

Die nächste Vorverstärkerschaltung will ich hier kurz beschreiben.
   
Hier haben wir in der Vorstufe als auch im Ausgang eine SRPP-Stufe. Diese ergeben in sich eine hohe Verstärkung, die mit der Gegenkopplung auf V=21,6 gedrosselt wird. Daraus resultiert eine sehr geringe Verzerrung und ein für Röhren ausserordentlich kleiner Ausgangswiderstand.

Hier noch eine SRPP-Endstufe, deren Vorteil darin besteht, dass sie einen Ausgangsübertrager mit geringem Übersetzungsverhältnis braucht, was die Trafo-spezifischen Probleme deutlich reduziert. Ausserdem ist keine Gleichstrom-Vormagnetisierung vorhanden. Da dieser Übertrager nicht unbedingt "Normalware" ist, muss er entweder speziell hergestellt werden oder man verwendet einen "100V-Trafo" mit einer Leistung von 25W und 4 Ohm Sekundärimpedanz. Damit hat man das Übersetzungsverhältnis von 1:10. Für eine gute Tonqualität sollte man sich allerdings einen wirklich hochwertigen Trafo besorgen!

       
SRPP-Röhrenverstärker

Beschreibung:

Die Besonderheit dieses Verstärkers ist die Verwendung der SRPP-Schaltung. Damit wird eine kleine Ausgangsimpedanz möglich, sodass ein Sparübertrager mit einem Übersetzungsverhältnis von 1:10 eingesetzt werden kann. Damit erreicht man eine bessere Klirrarmut und auch einen besseren Frequenzgang gegenüber normalen, hochohmigen Schaltungen. Allerdings muss der Übertrager extra hergestellt werden.
Als Endröhren werden vier EL36 verwendet (alternativ vier EL500 oder EL504), welche sich durch den relativ hohen Anodenstrom für diese Anwendung besonders eignen.
Als Treiber sind zwei EL95 vorgesehen, welche von einer EF86 angesteuert werden.

Im Netzteil ist zu beachten, dass zwei getrennte Heizkreise nötig sind, da die Heizung der Röhren 2, 4 und 6 nicht gegen Masse bezogen werden, sondern gegen die Verstärker-Ausgangsspannung. Dazu wird die entsprechende Heizwicklung des Netztrafos mit den Anoden von Röhre 5 und 7 verbunden. Damit ist sichergestellt, dass die maximale Spannung zwischen Heizung und Kathode bei den "oberen" Röhren nicht überschritten wird.

Die erste Stufe mit er EF86 enthält keine Besonderheiten, ausser dass die Gegenkopplung auf das Steuergitter zurückgeführt wird. Im Gegensatz zu Trioden ist der Kathodenstrom nicht mit dem Anodenstrom identisch, sodass sich die Gegenkopplung direkt auf das Steuergitter vorteilhaft auswirkt.

Röhre 3 (EL95) arbeitet erstens in Triodenschaltung (Schirmgitter mit Anode verbunden), um im Anoden- und Kathodenzweig gleiche Stromverhältnisse zu garantieren. Über die Kathode wird Röhre 5 angesteuert. Es findet somit keine Verstärkung statt. Durch den zusätzlichen Widerstand 13 in der Kathode wird die Aussteuerkurve der Röhre erhöht, damit auch wirklich die Ansteuerung von Röhre 5 möglich wird.
Um für die Röhre 4 die entsprechenden Steuerverhältnisse zu schaffen, ist im Anodenzweig von Röhre 3 die gleiche Widerstandskombination wie in der Kathode eingefügt. Damit sind die Spannungsabfälle und somit die Steuerspannungen im Anoden- und Kathodenzweig identisch, allerdings phasengedreht.
Da Röhre 5 verstärkt, Röhre 4 jedoch nicht, muss im Anodenzweig der Röhre 3 eine entsprechende Verstärkung ermöglicht werden. Daher wird Röhre 2 so geschaltet, dass sie das Ausgangssignal des Verstärkers der Anodenspannung von Röhre 3 überlagert. Röhre 2 ist eine art Konstantstromquelle, sodass das Steuersignal für Röhre 4 den gewünschten Pegel erhält.

Die Röhren 4 und 6 bezw. 5 und 7 sind jeweils parallel geschaltet. Über die jeweiligen Kathodenwiderstände wird eine Stromangleichung vorgenommen.
Das Widerstandsnetzwerk R22 und R26 dient der Absenkung der Gitterspannung von Röhre 4 und 6 um ca. 38V, entsprechend der Gittervorspannung von Röhre 5 und 7. Nachdem der Ruhestrom der Röhren 5 und 7 auf 10mA eingestellt ist, wird mit R22 die Anodenspannung von Röhre 5 und 7 auf 200V eingestellt.

Die Netzteildaten in der Stückliste beziehen sich auf die gezeichnete Schaltung, also EINEN Kanal.

Variante 2

In diesem Fall geht es um eine Schaltung, die einen minimalen Klirr verspricht.
   
Zur Erklärung sind zuerst mal 2 Grafiken nötig:

   
Diese Grafik zeigt eine Powertriode 6AS7 mit eine Arbeitsgeraden. Und man sieht auch die einzelnen Gitter-Kennlinien. Auf der Arbeitsgeraden ergeben sich da (in die Ua verlängert) unterschiedliche Anodenspannungsänderungen bei gleichen Gitterspannungsänderungen. Und generell sieht man, dass die Gitterkennlinien unterschiedlich flach verlaufen. Wie ganz zu Beginn der ganzen Geschichte beschrieben stellen diese Kennlinien den Ri-Verlauf der Röhre dar. Und wenn wir uns erinnern, so ist Ri massgebend für die Verstärkung. Ist also Ri unkonstant, ist dies auch bei der Verstärkung der Fall. Eine unkonstante Verstärkung bedeutet aber Klirr.

   
Bei dieser Grafik habe ich die grüne Arbeitskennlinie eingezeichnet. Hier kann man nicht mehr von einer Geraden sprechen. Der Trick dahinter: Ich habe allen Gitterspannungskennlinien gleiche Abstände anerzogen, indem ich die Arbeitskennlinie, also den Ra entsprechend angepasst habe. Der Ra müsste demnach (horizontal gespiegelt) der grünen Linie entsprechen. Sowas ist nur mit einem gesteuerten Ra möglich. Wenn dies aber genau eingehalten wird, ist ein Klirr von nahezu Null möglich.

Betrachtet man den Verlauf der grünen Linie und denkt sich diese gespiegelt, so hat sie Ähnlichkeit mit den Gitterlinien der Röhre. Und genau das ist der Trick. Verwendet man statt eines ohmschen Widerstandes als Ra eine gleiche Röhre wie die untere, so wird ein Teil der Verzerrungen kompensiert.

Wenn wir uns nun nochmals das Tetailschaltbild ansehen, so wird die Gittervorspannung der oberen Röhre an einem Spannungsteiler des Rk abgenommen. Das obere Gitter kann nun regelbar auf Katodenpozential oder auf Anodenpotenzial abgenommen werden. Da die Ausgangslast immer durch den Rk fliesst, führt dieser Laststrom zu einer Spannung am Rk. Wird das Gitter wechselspannungsmässig auf das untere Anodenpotenzial geführt, ist der ganze Laststrom-Spannungsabfall wirksam. Wird das Gitter an die obere Katode gelegt, ist keine Steuerung durch den Laststrom vorhanden. Mit dem Pot kann folglich die Lastkompensazion vorgenommen werden. Nachteilig ist, dass jede Laständerung neu abgeglichen werden muss, wie auch Röhrenalterung nach Nachregelung verlangt.

Man muss aber wissen, dass die Ansicht, es handle sich NICHT um eine Gegenkopplung falsch ist. Die Steuerung der oberen Röhre ist die Folge des Laststroms und somit eine Reaktion.

Betrachten wir nochmals die obige Triodenkurve, so sehen wir, dass die Linien nicht gerade verlaufen. Die vorhandene Krümung deutet auf Verzerrungen hin, ebenso der etwas unterschiedliche Abstand der einzelnen Linien.
Wenn wir das mit der reinen Pentodenkurve vergleichen
[attachment=775]
so haben wir hier ebenfalls eine leichte Krümmung der einzelnen Linien, wobei deren Verlauf völlig anders aussieht. Er ist pentodentypisch rasch ansteigend und nachher relativ flach.

Sicher ist, dass weder die eine noch die andere Kurvenschar ideal ist. Sinnvoll wäre etwas im Stil der Triode, aber mit geringerer Steilheit und möglichst ohne Krümmung. Damit hätte man weniger Verzerrungen und einen etwas kleineren Ri, verbunden mit einem grösseren Durchgriff, was aber je nach Röhre noch keine Leistungseinbusse mit sich bringen muss.
Eine solche "Verheiratung" der Kurven ist denkbar, wenn man das Schirmgitter nicht an eine feste Spannung legt, es aber auch nicht mit der Anode verbindet, sondern der Schirmgitterspannung einen Teil der Anodenspannung zuführt. Diese Schaltungsart nennt sich "Ultralinear".
[attachment=776]
Dabei ist natürlich nicht der Fequenzgang ultra-linear, sondern die Kurven werden linearisiert, was zu geringerem Klirr führt. Voraussetzung ist, dass die Vorstufe eine entsprechend höhere Steuerspannung liefern kann, was aber üblicherweise kein Problem darstellt.
Wie hoch der Wechselanteil der Schirmgitterspannung sein soll, wo also der Trafo-Abgriff sich befindet, hängt von der Röhre ab. Je nach Kurvenkrümmung bei Triode oder Pentode kann man den Anteil so festlegen, dass die Kurven möglichst gerade werden.
In der Praxis wird man sich mit Vorteil an die Herstellerangaben, also die Röhrendatenblätter halten. Meist findet man da aber keine Angaben über den Ultralinearbetrieb. Das bedeutet, dass man sich an die Angaben der Trafohersteller halten muss. Wenn diese beispielsweise einen Übertrager für EL84 in Ultralinear anbieten, so kann man davon ausgehen, dass der Abgriff am richtigen Ort sitzt und den besten Kompromiss bietet.
Steht da aber nur :"Ultralinear-Übertrager" ohne Angabe der Röhre, so ist die Sache mit Vorsicht zu geniessen. Es ist durchaus möglich, dass man mit dem verwendeten Abgriff zwar eine gewisse Verbesserung des Klirrs erreicht, jedoch nicht das Maximum erzielt.

Generell gilt, dass man sich sowohl für Vorstufen als auch für Endstufen an die Angaben der Datenblätter halten sollte. Da findet man jeweils alles, was in der gewünschten Schaltung Sinn macht. Man muss somit nicht selbst experimentieren. Wollte man eine Schaltung selbst entwickeln, müssten umfangreiche Messungen voraus gehen. Es genügt nicht wie bei einem Transistor, den Ruhestrom festzulegen. Man muss diesen am richtigen Ort der Ia/Ug-Kennlinie legen, also muss man erst mal diese Kurve haben. Und da bei einem Verstärker ja die Anodenspannung nicht konstant ist (sonst kommt ja kein Ton raus), sollte man diese Kennlinie mit einem entsprechenden Arbeitswiderstand bestimmen. Das ist mit üblichen Röhrenmessgeräten schon nicht mehr möglich oder sehr aufwändig, weil der Spannungsabfall am Ra simuliert werden müsste.
Noch komplexer wird die Geschichte bei der Pentode, wenn die Einflüsse des Schirmgitters auch berücksichtigt werden müssen.
Ich habe darum hier mal (die Kurve mit dem eingezeichneten Sinus) den Einfluss desRa in eine Kurve eingezeichnet. Und wenn man das tut, landet man letzten Endes da, wo die Vorgaben der Hersteller angesiedelt sind.
Zitieren
richi44
Unregistered

 
#5
11.08.2009, 10:55

PPP

Man kennt die Endstufen-Eintaktschaltungen und ebenso die normalen Gegenkatkschaltungen. Nun gibt es eine Variante, bei welcher die Endröhren zwar in Gegentakt, aber trotzdem „parallel“ auf die Last arbeiten. Dies nennt man PPP (Parallel-Push-Pull).
   
In der Grafik sind die Schaltungsarten gezeichnet. A stellt eine normale Eintaktschaltung dar. Wie üblich ist Ausgangstrafo und Speisung (durch Batterie angedeutet) in Serie. Hier ist die Speisung zwischen Trafo und Anode angeordnet.
Bei B ist die gleiche Schaltung zu sehen, nur dass die Speisung zwischen Trafo und Katode angebacht ist.

Wenn wir von einer Ansteuerung zwischen Gitter und Katode ausgehen ist es absolut belanglos, wo die Speisung montiert ist.

B-PP stellt eine Gegentaktschaltung dar. Im Grunde sind hier zwei Ausgangstrafos verwendet, die auf der Speiseseite verbunden sind und deren Ausgangswicklungen parallel geschaltet sind. Da beide Speisungen der ursprünglichen Eintaktaschaltung ebenfalls parallel geschaltet sind, kann eine entfallen. (durchgestrichen).
Nun macht es wenig Sinn, zwei getrennte Trafos zu verwenden denn wir haben ja gesehen, dass die Trafos durch den Ruhestrom vormagnetisiert werden, was nicht unbedingt klangfördernd ist. In der Praxis wird man daher die beiden Ausgangstrafos bei B-PP zu einem einzigen zusammenfassen, weil sich dann die Magnetisierungen durch die Ruheströme aufheben.

A(PPP) stellt eine Verbindung zweier A-Schaltungen dar, wobei hier bereits die beiden Wicklungen auf einen gemeinsamen Eisenkern arbeiten.
A-PPP ist nun die logische Weiterentwicklung. Hier sind die beiden getrennten Primärwicklungen zu einer gemeinsamen zusammengefass. Und es ist ersichtlich, dass die beiden Kombinationen aus Röhre und Speisung antiparallel geschaltet sind.


Jetzt kann man sich fragen, was der Unterschied der Schaltungen ist.
A und B sind Eintaktschaltungen und MÜSSEN in Klasse A betrieben werden. Dies bedeutet, dass der Arbeitspunkt (wie bereits früher erklärt) in der Mitte des geraden Teils der Kennlinie liegen muss. Bei jeder Art von normaler Gegentaktschaltung (also auch hier) kann der Arbeitspunkt nahe dem Sperreinsatz (Knick, bei kleinem Ruhestrom) liegen. Dies darum, weil sich die Röhren die „Arbeit“ der beiden Halbwellen teilen und damit letztlich eine höhere Leistung erbringen können.

Bis hierher sind die Schaltungen im Prinzip noch gleichwertig. Was aber auffällt ist der Umstand, dass im einen Fall der Signalausgang an der Anode erfolgt, im anedern Fall an der Katode. Nun wäre prinzipiell der Katodenausgang im Vorteil, weil da die Verzerrungen kleiner sind, denn die Röhre bringt so keine Spannungsverstärkung. Dies ergibt gleichzeitig einen kleinen Ri der Schaltung (guter Dämpfungsfaktor), der selbst ohne Gegenkopplung deutlich geringer ausfällt als bei einer normalen Schaltung, wo das Signal an der Anode ausgekoppelt wird. Dafür sind aber zwei getrennte Netzteilkreise nötig und es gibt (zumindest in diesen Zeichnungen) keinen Punkt, der Masse darstellt.

Das folgende Schaltbild zeigt einen funktionsfähigen Verstärker mit zwei EL34. Dieser liefert etwa 40W.
       
Bei genauer Betrachtung fällt auf, dass es am Ausgangstrafo nur noch eine Wicklung gibt, die in der Mitte an Masse liegt. Damit beziehen sich die Gleichspannungen auf ein Massepotenzial. Nur liegen die Netzteilelkos nicht direkt an Masse, denn wenn man normalerweise die Röhrenkatode (für Ton) als Masse betrachtet, ist dies hier nicht der Fall.

Wenn man sich die Sache nun weiter überlegt, so muss die Treiberröhre nicht nur das eigentliche Steuersignal von ca 20V liefern, sondern zusätzlich ein Signal in der Höher der Endröhren-Ausgangsspannung. Dies, weil die Ansteuerung der Endsröhren zwischen Gitter und Katode erfolgt, an der Katode aber zusätzlich die Ausgangsspannung abgenommen wird. Nun könnte eine ECC83 dies nicht bewältigen. Damit es trotzdem möglich ist, ist jede ECC83-Anode an die Katode der jeweiligen Endröhre (über die Elkos 12 und 13) gekoppelt. Damit macht also die Speisung beretsdas, was die ECC83-Anode zusätzlich bringen muss.

Ich habe gesagt, dass die Verzerrungen dieser Schaltungstechnik, also des PPP weniger Verzerrungen bringen würde. Tatsächlich werden aber die entstehenden Verzerrungen über diese Rückkopplung (Bootstrap) ebenfalls zurückgeführt und somit weiter verstärkt.

Letztlich hält sich der Vorzug dieser Schaltung in Grenzen, obwohl der Netzteil-Aufwand kaum grösser ist. Der Ausgangstrafo wird etwas einfacher und es gab vor vielen Jahren eine Bauanleitung in der Funkschau für genau dieses Prinzip, wobei auch der Ausgangstrafo selbst gewickelt wurde (findet man noch heute bei Jogi, PPP 20W mit EL34). Allerdings würde ich diese Arbeit nicht selbst übernehmen, denn wenn die Windungen etwas locker sitzen, fängt der Trafo unweigerlich zu klirren an. So eine Arbeit lässt sich nicht auf Omas Spinnrad erledigen.

Zusammenfassung der ganzen Reihe:
Es ist natürlich nicht möglich, hier alles haarklein zu beschreiben. Dafür gibt es Literatur. Und es ist auch nicht möglich, bei Röhren alles bis ins kleinste Detail zu berechnen. Dazu müsste man die Röhern in den gewünschten Betriebsdaten ausmessen. Da reichen die Angaben in den Datenblättern nicht aus.
Man muss aber bedenken, dass Röhren eine Datenstreuung haben und somit die Parameter keine Garantiewerte sind. Ausserdem unterliegen sie ja der Alterung.
Zitieren
admin
Stammgast
***

Beiträge: 820
Registriert seit: Aug 2023
#6
18.08.2023, 11:19

Pandora began designing its beloved charms in the year 2000. Each charm has a meaning, some times many meanings, one from its designer and more lent to it by the person who wears and loves it. Whether it’s a celebration of colour or pattern or a tribute to a country, occasion, activity or most importantly, a person, each charm is designed to tell the personal story of its wearer while showcasing their unique style. Our charms are worn with love on bracelets and necklaces; created especially to be worn in ways unique to those who wear them.
Pandora Jewelry Becomes Google
Pandora Jewelry Becomes Google
Pandora Jewelry Becomes Google
Pandora Jewelry Becomes Google
Pandora Jewelry Becomes Google
Pandora Jewelry Becomes Google
Pandora Jewelry Becomes Google
Pandora Jewelry Becomes Google
Pandora Jewelry Becomes Google
Pandora Jewelry Becomes Google
Pandora Jewelry Becomes Google
Pandora Jewelry Becomes Google
Pandora Jewelry Becomes Google
Pandora Jewelry Becomes Google
Pandora Jewelry Becomes Google
Pandora Jewelry Becomes Google
Pandora Jewelry Becomes Google
Pandora Jewelry Becomes Google
Pandora Jewelry Becomes Google
Pandora Jewelry Becomes Google
Pandora Jewelry Becomes Google
Pandora Jewelry Becomes Google
Zitieren


Gehe zu:


Benutzer, die gerade dieses Thema anschauen: 1 Gast/Gäste