Grafikkarten (Allgemein): News und Talk

P-F-S

Das bersonifiziere Pöse
Registriert
26 Juni 2021
Beiträge
550
Erhaltene Likes
904
Kann mir nur Schwer vorstellen, dass der Leak echt ist....
Der Unterschied von der 7900xt und der 7900xtx ist soooo krass in dem Vid, das ist meiner Meinung nach nicht ganz realistisch.
Die XTX hat ja durchgehend mal locker 30-50% mehr Power. Kann ich mir ehrlich gesagt nur ganz schwer vorstellen.
 
Kommentieren

RobMitchum

Namhafter Pirat
Themenstarter
Registriert
3 September 2021
Beiträge
2.154
Erhaltene Likes
2.386
Leichte Zweifel habe ich auch, aber da die ersten "Unboxings" bereits gelaufen sind ist das nicht mehr ausgeschlossen. Fake-Videos gabs kurz nach der Ankündigung dieser Karten schon länger.

Die XTX hat immerhin 2,3 Ghz statt 2 GHz als Takt und 384 Bit Busbreite statt 320. Also 20% mehr Busbreite, zudem etwas mehr Cache und halt 15% mehr Takt an sich, Boosttakt-Vorteil ist etwas enger. Nebst etwas mehr TDP eben, was aber auch dem Takt geschuldet ist.
 
Zuletzt bearbeitet:
Kommentieren

P-F-S

Das bersonifiziere Pöse
Registriert
26 Juni 2021
Beiträge
550
Erhaltene Likes
904
Ja dass die XTX mehr ruppen wird als die XT ist klar. Und natürlich spricht auch das Daten der XTX ne ganze Stange über der Xt liegen ist unbestreitbar. Aber Rohleistung resultiert selten bis gar nicht im selben Prozentsatz in den FPS ^^
Weis nicht... so gute 20% mehr Power kann ich mir gut und gerne vorstellen. Mehr aber auch nicht.
Bin aber mal gespannt was da dann tatsächlich kommt.
 
Kommentieren

RobMitchum

Namhafter Pirat
Themenstarter
Registriert
3 September 2021
Beiträge
2.154
Erhaltene Likes
2.386
Yep, deswegen auch mein Verweis auf GN oder HU. Gibt halt wenige Streamer/Youtuber, den ich "glaube". Aber da halt seit 2 Tagen "Unboxing" Videos kommen ist ein leidlich realer Hintergrund nicht gänzlich auszuschliessen.

Egal, am 12. oder 13. je nach Zeitzone soll die "Review-Sperre" ablaufen, die seriösen Tester halten sich halt an sowas.
 
Zuletzt bearbeitet:
Kommentieren

BingoBill

Namhafter Pirat
Registriert
15 Juni 2021
Beiträge
170
Erhaltene Likes
345
So die Tests sind da, hab bis jetzt nur PCGH gelesen aber nunja.
Würde die 4080 eher nehmen und deren P/L Verhältnis ist am Anfang schlechter aber der Strom Verbrauch der Radeons kann hier langfristig zu Buche schlagen.....

Echt schwierig.... vllt doch abwarten :/ NERVIG
 
Zuletzt bearbeitet:
Kommentieren

RobMitchum

Namhafter Pirat
Themenstarter
Registriert
3 September 2021
Beiträge
2.154
Erhaltene Likes
2.386
Hardware Unboxed ist auch raus, siehe

So "unerwartet" ist das nicht. Raytracing Performance ist nun "immerhin brauchbar", aber eben nicht umwerfend. Ansonsten haste ne "irgendwas um" 1100€ GPU zum Preis einer 1500€ teuren 4080. Mal sehen wo die preislich real landen.
 
Kommentieren

BingoBill

Namhafter Pirat
Registriert
15 Juni 2021
Beiträge
170
Erhaltene Likes
345
Plus das die AMD , für mich, deutlich mehr saufen. Vor allem wenn man FPS begrenzt!
Könnte alles Treiber Sache sein aber mir ist der Unterschied zu groß im Vergleich zur 4080.

Für um die 13xx€ bekommt man ne Palit 4080.... warte aber besser ab vllt gehen die Preise noch ein bissl runter.

Edit: Die AMD Modelle werden um die 1200€ und mehr sein, bei ner Differenz von 100€ nehme ich Nvidia mit besseren RT!
 
Zuletzt bearbeitet:
Kommentieren

RobMitchum

Namhafter Pirat
Themenstarter
Registriert
3 September 2021
Beiträge
2.154
Erhaltene Likes
2.386
Wenns dauerhaft 100€ sind ok. Wenn nicht -> Radeon. Selbst bei mittelfristig 30 Cent/kWh als Strompreis - überleg mal wie viele Stunden du spielen musst um 200-300€ im EK über die Stromrechnung und "50 Watt" rauszuhauen. Ich denk, Nvidia muss wenigstens 300€ vom aktuellen Niveau runter. Dann wärs bei 1200€, was für eine "80er" schon historisch teuer ist.

Was mich erstaunt hat - die 3090Ti wird auch im RT geschlagen. Ich hab eigentlich nicht mal das erwartet, bestenfalls ein knappes "auf Augenhöhe".
 
Kommentieren

BingoBill

Namhafter Pirat
Registriert
15 Juni 2021
Beiträge
170
Erhaltene Likes
345
Die Palit bekommt man für 1340€ grade auf MF.
Die Radeon wird bei 1200 liegen und Customs eher teurer.

Langfristig kann es sich ändern aber jetzt im Moment.

Kämpfe grade mit mir die 4080 zu kaufen um Ruhe zu haben.
Werde morgen die AMD Preise anschauen und je nachdem wenn am ende echt nur 100€ unterschied sind dann wird es ne Nvidia.

Bis Januar könnte ich warten, nur das wartespiel dauert schon zu lange , ich mag endlich die 5120x1440 nutzen.
 
Zuletzt bearbeitet:
Kommentieren

Finus04

fieser alter Sack
Registriert
19 Mai 2021
Beiträge
954
Erhaltene Likes
1.678
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Naja mit geschlagen ist ja dann doch ein sehr weiter Begriff. Je nach Game und Auflösung ist mal die eine und mal die andere vorne.
Also Augenhöhe passt da doch schon besser.
Das komische ist ja das sie meistens bei FHD hinter der 3090ti liegen und bei 4K dann öfters mal knapp vorne sind. Dann aber sind sie in FHD knapp vorne und in 4K dann deutlich dahinter, ich erkenne da kein Muster.
Und nun kommen wir zu dem Teil der mir am meisten Spass macht.
Bevor irgendeine der neuen Karten released war kam von AMD : unsere Karten werden dieses mal vorne sein.
Dann kam die 4090 und von AMD kam erst nichts, danach kam dann: die schnellste Graka unter 1000$ und natürlich: unsere Karten sind effizienter und verbrauchen weniger Strom als Nvidia.
Effizienter - Nöö, weniger Stromverbrauch - Nöö. Die schnellste Karte unter 1000$ - Nöö, keine der Karten liegt unter 1000$.
Heute heißt es auf einmal: die 4090 war nie unser Ziel sondern die 4080 ?.
Nächste Woche sind dann wieder die bösen Gameentwickler Schuld, die Stromanbieter, der liebe Gott oder was weiß ich.
Die Karten sind deutlich schneller, ja das stimmt, aber das war es dann auch. Wie schrieb ich schon vor geraumer Zeit? AMD hat ein schweres Jahr vor sich, bei den CPU auf die Fresse bekommen und bei den Grakas ebenso.
Und da ja bestimmt wieder das Argument kommt Raytracing braucht ja eh keiner, wir sind nach knapp etwas über 3 Jahren bei über 100 RT Titeln, Tendenz stark steigend.
Will AMD da jetzt permanent immer eine Generation hinterher hinken?
Vom Stromverbrauch im Idle will ich erst garnicht anfangen. Dazu wird sich noch zeigen was die Karten dann effektiv kosten werden.
Ich vermute mal die Scalper werden wieder auf die Fresse fallen. Was ich so im Netz sehe da werden die Karten bald sehr günstig werden. Viele die auf AMD gewartet haben sagen schon das sie doch eine 4080 kaufen werden.
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Wo lebst Du Robert, wir sind bei über 50Cent pro kw/h im Durchschnitt in Deutschland. Und die 50W Mehrverbrauch sind der beste Fall, wir sind meistens im Bereich von 70-80W, vom Idle reden wir erst garnicht.
Bei uns in Duisburg geht unter 65 Cent schon garnichts mehr, es sei denn man verbraucht so ab 4000kw/h pro Jahr, dann wird es etwas günstiger.
Die Karten müssen mindestens 300€ günstiger verkauft werden sonst bleiben sie liegen. Schau Dir doch mal die Verkaufszahlen der 4080 an, glaubst Du wirklich das AMD da mehr verkauft wird wenn sie nur 100-200€ günstiger wird?
 
Kommentieren

BingoBill

Namhafter Pirat
Registriert
15 Juni 2021
Beiträge
170
Erhaltene Likes
345
Sicher wird man mit Treiber noch was rausholen, ist ne neue Architektur und da muss Nvida noch durch aber bei Karten zu den Preis mag ich kein Beta Tester sein.
Durch die Architektur glaube ich nicht an AMD das sie ihre Treiber schnell in den Griff bekommen. Wer schickt den solche Treiber zum testen der eigenen Karten?

Auch verbraucht die AMD je nach Monitor mehr/weniger.

Nvida ist ja schon bisschen mit dem Preis runter gegangen.

Die Frage ist nun weiter warten oder zuschlagen.
Für um die 100€ mehr bekommt man am ende das reifere Produkt mit RT als Sahne dabei und ne Cherry on top mit der Leistungsaufnahme.

Die Custom Modelle werden sicher schneller sein durch eine höhere Leistungsaufnahme aber will man das?

4090 ist mir weiterhin zu teuer zu aktuellen Preisen und k.a ob sie auf so 1600€ runter geht.
 
Kommentieren

Finus04

fieser alter Sack
Registriert
19 Mai 2021
Beiträge
954
Erhaltene Likes
1.678
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Ja sind sie, aber das war eben vor dem AMD Launch. Jetzt aber liegen die Karten auf dem Tisch, also warum sollten sie jetzt noch ohne Not runter gehen?
Die 7900XTX schlägt die 4080 im Schnitt um 4%, die XT liegt im Schnitt 10% hinter der 4080, wie gesagt alles ohne RT, mit sieht das Bild dann übel aus. Da kann dann das Topmodell nicht einmal die "kleine Nvidia Karte" schlagen.
Dazu komt ja auch noch das AMD die TDP nochmal angehoben hat seit der Vorstellung. Jetzt geht auch mehr Strom durch.
Das haben ja auch einige Tester mitbekommen. Und die werden mit Sicherheit noch die Karten mit reduziertem Stromverbrauch testen und mein Bauch sagt mir das die 7900 XTX dann hinter die 4080 fallen wird.
Mir wäre es auch lieber das AMD dichter dran wäre bzw Nvidia ernsthaft unter Druck setzen kann.
Klar werde ich mir keine AMD Karte kaufen, aber dann wären die Chancen gut gewesen eine günstigere 4080 oder 4070ti zu bekommen.
Von dem Gedanken kann ich mich jetzt wohl verabschieden.
Von den ganzen AMD Versprechungen ist wie jede Generation nichts übrig geblieben, naja abgesehen vom 8 Pin Stecker.
Am besten war ja der Satz im PCGH Fazit: AMD hat es geschafft einen großen Vorteil mit dem DP 2.1 Anschluss in einen großen Nachteil zu verwandeln.
Und PCGH ist eigentlich doch sehr auf AMD Seite.
 
Kommentieren

GuyFawkes667

Namhafter Pirat
Registriert
21 September 2021
Beiträge
1.501
Erhaltene Likes
3.465
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Da sprichst Du etwas an, wo ich bei LTT heute sprachlos wurde.
Ab 13:00.
Im Idle einem max. Verbrauch von 171! Watt an einem Asus 4K Monitor.
Ok, AMD will das fixen, aber das finde ich trotzdem extrem krass.
Ich kann mir nicht erklären, wie derartige Unterschiede im "Ich tu doch gerade eh nix"-Modus auftreten können.
 
Kommentieren

BingoBill

Namhafter Pirat
Registriert
15 Juni 2021
Beiträge
170
Erhaltene Likes
345
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!
Genau das..... die frage ist steigen die karten oder werden sie noch was fallen.

Ich glaube aber das die 7000 Reihe noch Reifen wird und stärker aber das halt nicht mit mir für über 1000€.

Die Architektur ist neu , wenn Nvidia umstellt und es Reibungslos verläuft , dann erkenne ich das an. Da muss Nvidia noch durch wie AMD jetzt.
Spielt für den Konsumenten unter dem Strich natürlich keine Rolle.
 
Kommentieren

Finus04

fieser alter Sack
Registriert
19 Mai 2021
Beiträge
954
Erhaltene Likes
1.678
Die 40er laufen doch wie geschnitten Brot.
Der angebliche Steckerskandal der ja eigentlich keiner ist betraf 0,2% der Karten und war meistens auch noch ein Anwenderfehler bei dem mehrere Sachen zusammenkommen mussten.
Und Nvidia hat ja gesagt das sie das als Garantiefall behandeln werden, von daher also kein Problem.
Ich wünsche mir zwar das die Karten noch 2-300€ runter gehen, glaube aber eher nicht daran.
Wenn sich bis März/ April nicht was tut fliesst das Geld was für die PC Aufrüstung vorgesehen war wohl eher in die auf der SimExpo vorgestellten hydraulischen Pedale.
Dann bleiben die 1080p Monis halt noch ne Weile.
Ich geb keine 1200-1500€ für ne Graka aus.
 
Kommentieren

RobMitchum

Namhafter Pirat
Themenstarter
Registriert
3 September 2021
Beiträge
2.154
Erhaltene Likes
2.386
Bitte, Anmelden oder Registrieren um den Inhalt zu sehen!

Erinnert an "Mercedes Benz hat die Listenpreise der neuen E-Klasse um ein paar Prozent gesenkt..." Edit: Nachdem die neue E-Klasse die Listenpreise der ehemaligen S-Klasse bekommen hat.

Und dass die 40er wie "geschnitten Brot laufen" ist offensichtlich sehr diskutabel. Siehe
Bitte, Anmelden oder Registrieren um die Links zu sehen!
bzw.
Bitte, Anmelden oder Registrieren um die Links zu sehen!
... die 4090 ist zwar mit 2K absolut teurer, aber für Leute die Geld einfach kacken können und denen 1000 oder 2000 Euro "scheissegal" sind der beste Kauf. Ist aber nicht gerade die Masse der Kunden. 600 mm² Wafer bei der 4090 und das im "4nm Verfahren" kostet eben. Die 4080 kommt mit 380 mm² und etwas mehr als der Hälfte an Chipfläche aus, genau wie die 7900er von AMD. Welche AFAIK 300 mm² plus eben die Chiplet-Bastelarbeiten drumrum haben. Faustformel: Je kleiner der Chip, desto besser die Ausbeute. Weil Ausbeute skaliert etwa mit der Fläche dessen.

Apropos Chiplet -
Bitte, Anmelden oder Registrieren um die Links zu sehen!
... scheinbar ist das doch nicht so einfach, bisher "hiess" es die 4000er Serie ist die letzte NVidia mit monolithischem Design.

Was mir halt nicht in den Kopf geht - die 3070 hatte eine UVP um 500€, ist aktuell gegen Ende der Baureihe tatächlich für 550€ zu bekommen. Die 4070 wird nun faktisch doppelt so teuer werden und wurde halt als 4080/12 gb angekündigt und nun als 4070Ti vermarktet - mit den "Ti" meist nen Hunni über den Nicht-Ti Modellen. Scheinbar weil ne 80er halt teurer sein darf als die 70er Serie. Was soll dann die 4060 kosten? 700 Tacken? Alter...

Und was Strom angeht - IMHO kein wesentliches bzw. wirtschaftliches Argument, nochmal langsam zum mitdenken. Wie viele Stunden kann jemand spielen? Sagen wir 2000h p.a. Sagen wir volle last, also 350 Watt. Wenn 50 Watt davon im Schnitt(!) zu jedem beliebigen Zeitpunkt vermeidbar wären - 100 kWh/a an Mehrbedarf. Also auch bei 50 Cent (Grundversorger hier) ganze 50€ Mehrkosten im Jahr. Was kostet ein System mit 4K "Gamingleistung", also 13600/4080+? Nicht unter 2000€, eher 2500€. Und es bittet nach 4 Jahren ersetzt zu werden wenn man "Topleistung" haben will. Also alleine je Jahr 500€ an "Abschreibung" auf das System. Mich würde im Sommer eher unnötige 50 Watt "Heizleistung" ankotzen. Bzw. mit CPU und Board zusammen sicher 450 Watt mittlere Leistung als Abwärme in der Bude zu haben.
 
Zuletzt bearbeitet:
Kommentieren

P-F-S

Das bersonifiziere Pöse
Registriert
26 Juni 2021
Beiträge
550
Erhaltene Likes
904
Ja das mit dem Stromverbrauch sehe ich auch nicht so eng... ist eher so nen sekundäres Argument. Natürlich ist es schön wenn ne Karte weniger Strom frisst als ne Karte des anderen Herstellers mit der selben Leistung, aber letzten Endes muss man schauen wie es eben vom Kaufpreis her aussieht.
Ich finds eher schade, dass die Karten ( sowohl von AMD als auch von Nvidia ) aktuell so endlich hochgepusht werden. Keine Ahnung... hab letztens mal den original Kühlkörper meiner alten 780 Ti in der Hand gehabt, oder auch letztens mal ne EVGA 980 Ti gesehen... habt ihr euch mal die Kühlkörper angeguckt? Die waren maximal halb so dick wie die Dinger heutzutage.
Nicht, dass ich das schlimm finde, dass die Kühlkörper so fett sind. Aber die Temps sind ja generell die selben. Also ne 780 Ti, 980 Ti wird halt genauso heiß wie es ne 4080 usw auch wird...
Hab halt das Gefühl die versuchen einfach um jeden Preis nur noch die Leistung zu pushen ohne überhaupt noch an Effizienz zu denken. Hat so nen komischen Beigeschmack.
Als ob man sagt -> Was Golf ist zu langsam? Ja dann bau nen LKW Motor rein! Der passt nicht? Dann bau mal nur den Motorraum größer....
Klar nicht der beste "bildliche" Vergleich. Aber ich denke man weis was ich meine. Fühlt sich alles so "nicht zu Ende gedacht" an.

Joa.... und das AMD da jetzt ne größere Klappe hatte... naja... meine Güte, das find ich jetzt nicht unbedingt wild. Schade natürlich, dass es nicht so krass geworden ist wie angekündigt, allerdings ist das doch immer so.
Nichts weshalb man jetzt das Jammern anfangen braucht.
Bin mal eher gespannt ob die das mit dem IDLE hinbekommen. Denn unter "ich mach nichts" 170w find ich tatsächlich nicht so knülle...
Wie sieht das denn dann mit dem Temps aus? Über 50° schon im IDLE oder wie?... Wäre für meinen Kopf irgendwie eine No-Go...
Allerdings hittet mein System die 50° auch nur unter Last bei Fan-Speeds die nach dem Motto laufen "Naja wir tun mal so als ob wir drehen".... :-D

Das mit den Preisen für die NV Karten beziehungsweise generell die Karten so teuer ist, ist so ne Sache... Man "muss" es ja nicht kaufen.
Ich kanns aber verstehen, dass die die Preise so anziehen. Wieso auch nicht... Die Leute kaufens doch. Ich kann mich selbst mit der "alten"
2060 nicht beklagen, und das obwohl ich mit dem Ding nicht nur Zocke sondern Arbeite. Selbiges gilt für meine Frau die mit ner 1060
generell zufrieden ist.

Zumal aktuell ohnehin ALLES einfach teurer ist. Denke da an meinen Magerquark den ich mir jeden morgen reinknalle...
letztes Jahr noch 69ct. Dieses Jahr 1,39. Also mal eben das doppelte.
Gas -> Doppelte
Strom -> circa das Dreifache
Wenn ich jetzt davon ausgehe, dass meine RTX 2060 damals 350 Euro gekostet hat ists eigentlich "nur logisch" wenn die xx60 jetzt 700 Tacken kosten.
Da kann man eher noch froh sein, dass die nicht im selben Faktor skaliert wie der Strom.

Spaßeshalber:
Bei den Strompreisen hätte ich bei dem Verbrauch der aktuellen Top-Karten wie der 4090 eher Angst, dass die Stadtwerke sagen
"Wir beliefern sie nicht wenn sie zocken, weil sie die Blackoutgefahr zu stark erhöhen" :-D
 
Kommentieren

RobMitchum

Namhafter Pirat
Themenstarter
Registriert
3 September 2021
Beiträge
2.154
Erhaltene Likes
2.386
Gas das Dreifache. Bei uns von 5.1 Cent/kWh (steht bis 31.12) auf 15 Cent/kWh hoch. Strom hat sich beim Grundversorger "nur" verdoppelt. Unser MFH verballert lockere 5kW thermischen Dauerstrich um die Warmwasser-Loops auf 60 Grad zu halten. Irgendwann fragste dich auch, ob nicht Grakas als Wärmequelle an den Warmwasserloop angeschlossen werden sollten.... der muss in gewerblich genutzten und vermieteten Häusern halt 60 Grad formal haben. Und ja, auch mit Warmwasser kannste kühlen. Der Wärmeübergang ist sogar recht gut wenn man es strömungstechnisch richtig macht.

Was die 980Ti angeht - auch 600 mm² Chipfläche wie Wikipedia sagt. Aber eben 8 Mrd Transistoren weil "nur" 28 nm. Der neue 600 mm² Chip kommt bei formal 4 nm (eigentlich eher 5) auf 76 Mrd Transistoren. Plus Taktvorteil ahnst du wo die Leistung herkommt. Deine 2000er Serie hatte 12 nm, im Vollausbau, also nur noch halb so groß wie die 900er Serie. Der 7900 XTX als beste RDNA3 hat laut Google 57 Mrd Transistoren.
 
Zuletzt bearbeitet:
Kommentieren

BingoBill

Namhafter Pirat
Registriert
15 Juni 2021
Beiträge
170
Erhaltene Likes
345
AMD hat es aus meiner sicht geschafft die 4080 gut da stehen zu lassen aufgrund ihrer Preis Gestaltung.

Was man nicht alles braucht, ich brauche 60 bis 120fps auf 5120x1440 das schaffe ich selbst mit meinen ollen R5 3600.
Daher reicht mir das, ich muss mir da keinen neuen Intel oder AMD holen obwohl ersteres meine Wahl im moment wäre.

Die Preise von AMD werden auch bei 1200€ liegen und mehr.
Warum dann nicht 100 bis 150€ drauflegen und das rundere Prodult abgreifen?

Ich gebe halt keine 1200€ aus und kann dann HOFFEN das AMD es per Treiber in einigen Wochen gewaschen hat.
Obwohl der hohe Verbrauch bei Monitoren so gewollt ist, laut AMD.

Bei Nvidia bekomme ich Automatisch einen geringeren Verbrauch, ähnliche/gleiche FPS und dazu ein viel größeres Set an Funktionen.

Ich sage , von beiden Herstellern sind die Preise viel zu hoch , aber die Preisdifferenz die nun eine Rolle spielt macht die Nvidia Karten zum besseren Produkt.

EDIT: bei MF ist die 7900xtx für 1.349€ zu bekommen als Custom. Ist sogar 10€ teurer als meine neue 4080 von Palit.
Wenn die Preise die nächsten 14 Tage abstinken gebe ich sie zurück und kaufe eine neue.
 
Zuletzt bearbeitet:
Kommentieren

MrHonk

mit Baby Bruno
Registriert
6 Mai 2021
Beiträge
885
Erhaltene Likes
1.822
Alle meckern der Preis ist zu hoch, aber nicht gerade wenige schreiben hier, trotzdem eine neue Grafikkarte für 1.200€ aufwärts zu kaufen. Statt einfach noch eine Generation abzuwarten und zu schauen ob Nvidia und AMD ihre irrwitzige Preispolitik überdenken und die nächste Gen wieder deutlich unter 1.000€ anbieten werden, wird die hohe Preispolitik der aktuellen Gen unterstützt und beide Hersteller mit ihren aktuellen Preisen bestätigt.

Ich bräuchte für den FS 2020 in 4K auch eine bessere Grafikkarte als meine bisherige 2080, aber bei den Preisen bin ich nicht gewillt zu kaufen, und das liegt nicht am Geld, das ist vorhanden.
 
Kommentieren
Oben