Was habt ihr heute so gebastelt?

  • bei einem Produkt was in 2 Jahren schon überholt und EOL ist, wird jeder Cent umgedreht. In der Marktwirtschaft wird ein mittelmäßiges Produkt "sparsam" gefertigt weil der Konsument auch immer erst nach dem Preis schaut.


    Die Hersteller haben über die Jahre auch ihre Erfahrungen gemacht und irgendwann waren Solid Caps preislich akzeptabel und man konnte es marketingmäßig "teurer" verkaufen. Auch da gibt es Qualitätsunterschiede, logisch.


    Die richtig teuren "Enthusiasten" Boards sind da event. eine Ausnahme aber auch da will ich nicht meine Hand dafür in Feuer legen.... es gibt immer wieder einen neuen jungen Lean Manager der es allen zeigen will/soll...

  • Wenn man das Problem mehr als 5 Jahre hat dann schon 🙄

    Ich behaupte man hat es billigend in Kauf genommen und nicht gehandelt.

    Solange es über Gewährleistung hinaus geht wo cares ?

    das kann ich nur bestätigen :)


    Gigabyte hat mit ihren durable und ultra-durable da einen anderen Weg eingeschlagen, hätte ich aber auch für 24/7 geschäftskritisch nicht genommen, privat war das für mich immer eine sehr gute Wahl, habe ich oft für Freunde verbaut und Gigabyte kaufe ich auch heute noch gern. Ich habe aktuell kein Problem mehr mit Asus, aber die gefühlt jahrzehnte-dauernde Elkopest werde ich denen nie verzeihen, anfänglich kann ich schon glauben, dass es "pech" war, aber es hat sie kaum gejuckt.
    Allerdings gibt es von Asus/Advansus auch Boards für Industrie und längerer Verfügbarkeit.

    Wenn man sich mal so ein Fujitsu-(Siemens) nun Kontron Mainboard ansieht, dann weiss man einfach, eher friert die Hölle zu als dass da nen Elko den Hintern hochreisst... aber das ist auch etwas Apfel/Birne grad.
    Nen Consumerboard für ein paar Stunden Laufzeit im Wohnzimmer hat schon andere Anforderungen als nen 24/7 PC der in der Wärme läuft oder so.

    Trotzdem Asus leg dich gehackt mit deinen Elkos

  • Welcher ist es denn jetzt Matze?

    386SX- 20 Mhz "Erster eigener Rechner!2" NoName Komponenten

    486DX -30 "Industrie PC" auf Steckkarte

    Super Sockel 7 Gigabyte GA-5AA 3Dfx Voodoo 3500 TV

    AMD "Geode" ebenfalls Steckkarte für Backplane

    3x IBM Netvista 8364 "ThinRetroSystem" 1-2 von denen würde ich tauschen...


    "und noch so einiges mehr... "

  • Na Matze ist Matze und Matt ist Matt ;)

    Meine Posts enthalten meine persönlichen Meinungen und Erfahrungen.

    Es besteht kein Anspruch auf Richtigkeit oder Vollständigkeit! :D


    Daily Privat: i5-10400F // 16 GB // 1x 512GB + 1x 1TB SSD - 2x var. HDD in Bays // GTX 1660 Super // Linux Mint 21.3

    Daily Work: i7-4770 // 24 GB // 2x 480GB SSD // GTX 750 Ti


    Retro 1: HP Vectra VL2 4/66 // 486 DX2-66 // 16 MB // 6GB // CL-GD5428 1MB // Vibra 16C // 3,5" & 5,25" Floppy // DOS 6.22 // WfW 3.11

  • Ich mach mich wahrscheinlich unbeliebt. Aber im Professionellen/Server bereich nutze ich nichtmal mehr Hardware und rate auch keinem dazu :p

    Is alles ne Wolke ^^


    Warum ueberhaupt noch mit Hardware da rumschlagen. Kostet nur Zeit und Aerger und ich mochte auch vor Jahren nichtmehr wegen Implodierenden Komponenten quer durch die Stadt fahren muessen :)

  • Weil manch einer seine Daten eben nicht bei Dubiosen Anbietern mit NSA/BSI Zugang lagern möchte.


    Mit dem Auslagern seiner Daten, lagert man auch seine Sicherheit aus und macht sich Abhängig.

  • Da stimme ich matze79 absolut zu.

    Da ich alles zuhause habe, habe ich damit auch die volle Kontrolle was mit meinen Daten passiert.

    Klar die Anschaffungskosten darf man nicht vernachlässigen (wobei für eine eigene Cloud theoretisch auch problemlos ein alter, ausrangierter Rechner reicht).

    Aber ich hab gern die alleinige Gewalt über meine Daten, von daher käme für mich z.B. niemals ein Speicherort bei jemand anderem / irgendeiner Firma in Frage.

    Meine Posts enthalten meine persönlichen Meinungen und Erfahrungen.

    Es besteht kein Anspruch auf Richtigkeit oder Vollständigkeit! :D


    Daily Privat: i5-10400F // 16 GB // 1x 512GB + 1x 1TB SSD - 2x var. HDD in Bays // GTX 1660 Super // Linux Mint 21.3

    Daily Work: i7-4770 // 24 GB // 2x 480GB SSD // GTX 750 Ti


    Retro 1: HP Vectra VL2 4/66 // 486 DX2-66 // 16 MB // 6GB // CL-GD5428 1MB // Vibra 16C // 3,5" & 5,25" Floppy // DOS 6.22 // WfW 3.11

  • Nicht verantwortlich .,..leider muss ich mac-daniel widersprechen.

    Man hat wohl nur auf Preis geachtet und wissen, was das dann bedeutet. Vorallem dass es nicht dagegen gehandelt ist.

    Ich weiss, machst du gerne ^^

    Ich würde eher sagen man hat unbewusst gehandelt, nicht mit dem bewussten Ziel dass die nach ein paar Jahren hochgehen. Wenn dann kann man den verantwortlichen höchstens Ignoranz unterstellen.

    MSI hatte z.B. die gleichen Probleme.


    Trotzdem waren die ASUS Bretter davon abgesehen immer super. Ich habe die ab dem Pentium 3 bevorzugt eingesetzt und wurde nie enttäuscht.

    Es laufen auch noch einige dieser Boards von damals in der Familie ohne Ausfälle.

    Compaq Deskpro 286n/12MHz - 1MB - 40MB HDD - 3,5" Floppy //
    Panatek 386DX33 - 80387 - 8MB - 504MB CF2IDE - 5.25" & 3,5" Floppy - SB Vibra - NIC - 512Kb VGA //
    486DX2-66 - 16MB - 4GB CF2IDE - 5,25" & 3,5" 2,88MB Floppy - DVD - SB Vibra - NIC - 1MB CL VLB VGA //
    Intel Pentium 233MMX - 64MB - 16GB CF2IDE - 3,5" Floppy - DVD - SB AWE64 - NIC - 3Dfx Voodoo Banshee//
    Intel Pentium III 600MHz - 256MB - 4GB CF2IDE - 3,5" Floppy - DVD - SB AWE64 - NIC - 3Dfx Voodoo 3 3000 //

  • Die BX basierenden ASUS boards waren seinerzeit der hammer. das CUBX-E .. da hab ich nachts von getraeumt. Hab damals FAST / Dazzle Videoschnittsysteme verkauft. auf dem lief sogar ein unsaeglicher DV Master problemlos auf 133Mhz FSB ...:)

  • Klar, aber ich will dich nicht damit ärgern. Ich mein ernst.


    Schon klar, Asus aus Pentium 2/3 Zeitalter ist relativ solid. Aber ich habe nicht Asus beschuldigt, eher Laden, der billige Elko weiterhin verbaut, trotz Reklamationsquote. Da ist iEi auch nicht besser: Ich habe mehre Pentium 4 ISA CPU Karte (2003-2005) mit Elkopest (Nippon KZG *kotz* ) und der verbaut auch neuere Version weiterhin mit Nippon KZG.. . Ich habe paar nagelneue Pentium 4 So478 SBC aus 2008/9 (!), auch mit Nippon KZG bestückt. Selber Schuld!



    Deine Aussage, wo man Zulieferer Schuld geben kann: zig taiwanesische Laden wie Abit, Elitegroups und so haben Arschkarte gezogen, weil Elko mit gepanschte Mischung verbaut geworden ist. Das ist dumm gelaufen.


    Aber das hat mittweile nicht mehr mit Ursprungstheard zu tun.

  • Finde den Gaming PC

    Mir ging es um die Auflösung dieses Rätsels

    386SX- 20 Mhz "Erster eigener Rechner!2" NoName Komponenten

    486DX -30 "Industrie PC" auf Steckkarte

    Super Sockel 7 Gigabyte GA-5AA 3Dfx Voodoo 3500 TV

    AMD "Geode" ebenfalls Steckkarte für Backplane

    3x IBM Netvista 8364 "ThinRetroSystem" 1-2 von denen würde ich tauschen...


    "und noch so einiges mehr... "

  • Ich mach mich wahrscheinlich unbeliebt. Aber im Professionellen/Server bereich nutze ich nichtmal mehr Hardware und rate auch keinem dazu :p

    Is alles ne Wolke ^^


    Warum ueberhaupt noch mit Hardware da rumschlagen. Kostet nur Zeit und Aerger und ich mochte auch vor Jahren nichtmehr wegen Implodierenden Komponenten quer durch die Stadt fahren muessen :)

    naja, ich bin unter anderem Cloud solution architect und wir sind auch CSP, ich kann dir zwar beipflichten, dass es sicherlich Fallstellungen und Infrastrukturen gibt, die in der Cloud sinnvoll sind, allerdings kann man das nicht pauschalisieren; Lizenzkosten, Geschwindigkeit, Verfügbarkeit, technische Möglichkeiten und Fallstricke. Vieles macht Spaß, weil es so einfach geht, aber günstiger fährt man dort meist nicht, das behaupten nur die CSPs, die ja gut davon leben.

    Andere Dinge funktionieren z.B. sehr gut, Skalieren von Datenbanken, Rechenpower, Laufzeiten anpassen, Georedundanz anpassen, etc. aber für jeden Mist muss man halt zahlen und die Technologie schreitet täglich voran, eigentlich müsste man die Installationen jährlich erneuern um alle neuen Features und Änderungen zu nutzen.

    Die Kosten sind natürlich anders verteilt, aber wer schomal nen Cloudausfall von ner Woche vor seinen Kunden zu vertreten hatte, der findet das nicht immer so lustig, oder mal ne Azure-Maschine die einfach verschrottet wurde und nicht aktuell wiederhergestellt werden konnte etc. Man kann halt persönlich wenig machen dann.

    Spaß macht es, sinnvoll ist so eine Glaubens-, Anwendungs- und Kostenfrage.

  • Cloud ist schon sinnvoll, als dritter Weg.

    Also alles lokal auf dem Server speichern und dann verschlüsselt in die Cloud schieben als Backup vom Backup. Sowas als einzige Backuplösung und dann noch unverschlüsselt zu betreiben ist mindestens grob fahrlässig.

    Oder man schiebt da nur Dinge rein die eh keine große Halbwertszeit oder einen besonderen Wert haben.

    Compaq Deskpro 286n/12MHz - 1MB - 40MB HDD - 3,5" Floppy //
    Panatek 386DX33 - 80387 - 8MB - 504MB CF2IDE - 5.25" & 3,5" Floppy - SB Vibra - NIC - 512Kb VGA //
    486DX2-66 - 16MB - 4GB CF2IDE - 5,25" & 3,5" 2,88MB Floppy - DVD - SB Vibra - NIC - 1MB CL VLB VGA //
    Intel Pentium 233MMX - 64MB - 16GB CF2IDE - 3,5" Floppy - DVD - SB AWE64 - NIC - 3Dfx Voodoo Banshee//
    Intel Pentium III 600MHz - 256MB - 4GB CF2IDE - 3,5" Floppy - DVD - SB AWE64 - NIC - 3Dfx Voodoo 3 3000 //

  • Hehe. Ich arbeite quasi an der Quelle aller Wolken ( also Solutions Architect ;) ). Aber ja alles was du sagst haste recht. Jaerlich? Kannste fast schon einmal im Monat alles neu anguggen je nachdem. Ich rede hier auch eher von meinen Sidejob sachen wo ich selber davon abhaenge. da haette ich keine Lust mehr auf DC kram. Insgesamt kommts immer sehr auf die Anforderungen und den Workload an. Guenstiger? Zumindest nich wenn man versucht gewachsene Overprovisioning Direct Match geschichten in die Wolke zu stellen. Macht meist wenig Sinn abseit vom Operational Overhead den man ggf. loswird ;)

  • Hehe. Ich arbeite quasi an der Quelle aller Wolken ( also Solutions Architect ;) ). Aber ja alles was du sagst haste recht. Jaerlich? Kannste fast schon einmal im Monat alles neu anguggen je nachdem. Ich rede hier auch eher von meinen Sidejob sachen wo ich selber davon abhaenge. da haette ich keine Lust mehr auf DC kram. Insgesamt kommts immer sehr auf die Anforderungen und den Workload an. Guenstiger? Zumindest nich wenn man versucht gewachsene Overprovisioning Direct Match geschichten in die Wolke zu stellen. Macht meist wenig Sinn abseit vom Operational Overhead den man ggf. loswird ;)

    jau, ein großer Vorteil ist natürlich, man kann ruhiger schlafen, wenn die Hardware-, Daten-etc. verantwortung outgesourced ist, halt so lange bis was nicht geht, ist zwar selten, aber kommt schonmal vor.
    Was mich besonders fasziniert sind die tätlich neuen Möglichkeiten, wenn man bedenkt wie Azure angefangen hat und wie es dann vor 3-4 Jahren aussah und was nun geht, echt krass.

    Ne komplette Infrastruktur aufzubauen, ausm Browser heraus, ohne eigene on-prem Hardware innerhalb kürzester Zeit, das ist echt MEGA

  • Hehe. Ich arbeite quasi an der Quelle aller Wolken ( also Solutions Architect ;) ). Aber ja alles was du sagst haste recht. Jaerlich? Kannste fast schon einmal im Monat alles neu anguggen je nachdem. Ich rede hier auch eher von meinen Sidejob sachen wo ich selber davon abhaenge. da haette ich keine Lust mehr auf DC kram. Insgesamt kommts immer sehr auf die Anforderungen und den Workload an. Guenstiger? Zumindest nich wenn man versucht gewachsene Overprovisioning Direct Match geschichten in die Wolke zu stellen. Macht meist wenig Sinn abseit vom Operational Overhead den man ggf. loswird ;)

    jau, ein großer Vorteil ist natürlich, man kann ruhiger schlafen, wenn die Hardware-, Daten-etc. verantwortung outgesourced ist, halt so lange bis was nicht geht, ist zwar selten, aber kommt schonmal vor.
    Was mich besonders fasziniert sind die tätlich neuen Möglichkeiten, wenn man bedenkt wie Azure angefangen hat und wie es dann vor 3-4 Jahren aussah und was nun geht, echt krass.

    Ne komplette Infrastruktur aufzubauen, ausm Browser heraus, ohne eigene on-prem Hardware innerhalb kürzester Zeit, das ist echt MEGA

    Wir verlassen zwar etwas das Thema hier. aber ich mag doch noch was sagen :) Ja .. ist wirklich Bombe. Wenn ich mal zurueckdenke wie automation on-premise machbar ist. VmWare, Cisco, Netapp, F5, Arista, HP, whatever ... alles eigene APIs, systematiken, module und prinzipien die bedacht werden wollen. Und immer hatte/hat man irgendwas was sich nicht ordentlich automatisieren kann oder nur ueber ... kackscheise .. das hat mich immer sehr genervt. Jetzt. ok berufsbedingt AWS ... kein Azure/GCP usw.. eine API mit der ich reden muss um komplette infrastrukturen aufzubauen und zu automatisieren. Ich fahr ca. 30 Web Applikationen. davon ein paar groesser mit clusterfarmen. Alles voll Automatisiert. vom System Image, Applikation zur gesamten infrastruktur. ohne das ich mehr als 2 Stunden im Monat fuer den Betrieb aufwenden muss. System patching? Die maschinen sind Cattle und ich ersetze die einfach mit einem cli kommando (bzw. automatisch via lifecycle management) .. ich brauche einen restore. ich schiesse ein CLI kommando und bekomme den Datastore in minuten zurueck ohne das ich gross was anfassen muss .. usw.usw. Firewall, LB Scaling, Scaling ueberhaupt. automatisch ;) (ok die apps sind eher statisch, klassischer Webkram halt) Das hab ich vorher zwar auch bekommen aber aus erfahrung .. es hackt immer irgendwo.

    Man muss natuerlich einschraenken auch die neue Welt hackt und man sollte aufpassen und verstehen was man da macht. so wie frueher auch. Sonst wirds teuer oder die neue Welt bringt einem wenig vorteile im vergleich zu vorher (aka Single-Instanzen ... Pets als Server .. etc.pp. )

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!