Vier Gründe warum Linux scheitern wird

Hardware & Software. Internet-Security, Viren, nützliche Programme und Spiele, Computerprobleme.


Benutzeravatar
Dhe
Verschwörungsfreak
Verschwörungsfreak
Beiträge: 1437
Registriert: 16.11.2005 - 17:57

Vier Gründe warum Linux scheitern wird

25.04.2009 - 02:03

Ich hab mir in den letzten paar Wochen mal ein paar Gedanken über die oben stehende These gemacht, und will die mal zur Diskussion stellen. Grundsätzlich geht es nicht darum Linux mit irgendeinem anderen Betriebssystem zu vergleichen, zumal es "das" Linux in dem Sinne nicht gibt. Bei bestimmten Aspekten läßt es sich aber nicht vermeiden. Außerdem ist das meiste hier ziemlich Allgemein.

Achja und um das gleich vorneweg zu nehmen, auf den Rechnern, auf denen ich wirklich arbeite und die ich nicht als Multimedia-Unterhaltungsplattform benutze, rattert schon seit Jahren irgendeine Linux-Distribution.


In medias res hier die Diskussionsansätze:

1. Ein Sack Flöhe

Distributionen werden bekanntermaßen von weltweit verteilten Teams entwickelt bzw. gepflegt. Während das sicherlich den Pluralismus erhöht (üblicherweise von einigen Jüngern propagandistisch bis zum Erbrechen ausgeschlachtet wird) hat das aber auch einen Nebeneffekt. Während der Kernel zwar im Großen und Ganzen bei den meisten aktuellen Distributionen identisch ist, gestaltet sich die Modulverwaltung uneinheitlich. Was daraus folgt sind uneinheitliche Standards, was wiederum zu Problemen beim User (und ich rede eher nicht vom Heimanwender) führt.

In dem Zusammenhang ist es übrigens kein Zufall, daß sich ausgerechnet Ubuntu zur erfolgreichsten Distribution bei Heimanwendern gemacht hat, genausowenig wie es ein Zufall ist, daß die nur minimalen Beitrag am Kernel leisten.

2. Software und Treiber

Im Grunde ist der Punkt schon ein totes Pferd, aber es ist nunmal eine Tatsache. Entwickler produzieren Software in erster Linie für Windows und wenn es hochkommt für OS/X. Das hat im Prinzip hauptsächlich wirtschaftliche Gründe die mit der Verbreitung der beiden Systeme zusammenhängen, stellt Linuxanwender (auch hier wiederum nicht zwangsläufig den Heimnutzer) aber vor ein Problem. Software xy ist für sein System unter Umständen nicht verfügbar.

Macht nichts, sagt der Linuxfreund, es gibt eine weitreichende Palette an äußerst funktioneller Software. Stimmt auch, unterschätzt aber vollkommen, wieviele User eben aus teilweise äußerst differenzierten Gründen, eine ganz bestimmte Anwendung haben wollen.

In den letzten Jahren hat sich an der Front zwar einiges getan, aber das Grundproblem besteht weiter. Und irgendwie kann es auch nicht Sinn der Sache sein, seinen Scheiß in WINE laufen zu lassen oder für jeden Mist auf Java oder POSIX zurückzugreifen.

Ähnliches gilt für Treiber. Warum soll sich ATI mit dem Kernel rumschlagen, wenn auf (geschätzen) 90% der Rechner ihrer Kunden ohnehin kein Linux läuft. Folge davon ist, daß man oft nur abgespeckte Treiber bekommt, die nicht alle Funktionen der Hardware ansteuern oder eben gar keine. Die Community bemüht sich zwar redlich, eine dauerhafte Optimallösung kann das aber nicht sein.

3. Linux und Windows

Here it comes (ging ja doch nicht ohne). Blicken wir den Tatsachen mal ins Auge: Viele Heimanwender die auf eine Linuxdistribution wechseln, tun das, weil sie von Windows abgegessen sind. Ein gewisser Teil kommt dann wieder zurück oder betreibt ein Dualsystem, weil sie mit Linux nicht zurecht kommen und/oder mit den falschen Vorstellungen und Erwartungen rangegangen sind.

Es mag einem gefallen oder nicht, aber Windows ist nunmal in den Augen der überwiegenden Menge der Privatanwender der Standard wie ein Heimcomputer zu funktionieren hat, was übrigens beträchtlichen Anteil an der Verbreitung selbiger hatte.

Eine weitere meiner persönlichen Ansichten ist, daß man Windowssysteme wenn man bereit ist sich mit ihnen zu beschäftigen auch relativ leicht warten und betreiben kann ohne sie dabei zwangsläufig zuzumüllen. Das galt für NT und Derivate schon immer und nach Anlaufschwierigkeiten auch für XP. Selbst bei den rückbetrachtend grottigen 98 und ME ging das. Vista kenne ich nicht gut genug.

Was ich sagen will ist folgendes: Die Mehrzahl der Menschen auf diesem Planeten braucht keinen Computer. Was die brauchen/wollen ist eine Schreibmaschine, eine Stereoanlage, eine Spielkonsole, einen Videoplayer oder einen Webbrowser. Genau so verwenden sie auch ihre Rechner. Und Microsoft bedient diese Sparte mit ihrem Betriebssystem inhaltlich und wirtschaftlich ziemlich perfekt. Apple schlägt übrigens in die gleiche Kerbe.

Die Probleme die ihre Systeme haben, liegen zumindest nicht in erster Linie beim System an sich sondern beim dem Trottel, der es bedient, was mich zum nächsten Punkt führt, den ich gebetsmühlenartig immer und immer wieder runterbete: Würde morgen ürplötzlich eine kosmische Strahlung Linux zum dominanten Betriebssystem im Heimbereich machen, würde es ziemlich schnell die gleichen Probleme bekommen, die heute Windows zugeschrieben werden.

Wenn man an dem Microsoft wirklich etwas kritisieren will, dann sollte mandaran ansetzen, wie mit der Privatsphäre und den Persönlichkeitsrechten des Users umgegangen wird. Von den ganzen Lizenzgeschichten will ich gar nicht anfangen. Das sind aber juristische Aspekte, keine technischen.

4. Monolithic Kernel, x86, Moores Law und die Zukunft (Endstation für Nichtgeeks)

Moores Law sagt vereinfacht bekanntlich, daß sich die Anzahl der Transistoren, die man auf einem Chip unterbringen kann pro Jahr verdoppelt. Mit anderen Worten, die Dinger werden (theoretisch) immer schneller. Das war am Anfang nur eine Beobachtung und wurde dann zum Pseudogesetz stilisiert. Zumindest hat es aber in den letzten 30-40 Jahren im Großen und Ganzen gestimmt. Allerdings nähern wir uns erstmals einem Punkt, an dem die Entwicklung langsamer werden könnte. Die Geschwindigkeit von Prozessoren wird zwar immernoch exponentiell schneller, aber man nähert sich mittlerweile gewissen physikalischen Schranken. Seien es Probleme beim BUS, bei der Kühlung oder ganz simpel, daß man rein mikroskopisch nur so und so viele Leiterstrukturen auf einem gegebenen Bereich schaffen kann. Wenn nur noch ein Atom Platz zwischen Leiterbahnen ist, ist Feierabend.

Was ich damit sagen will, ist, daß entweder die gegebene Prozessorarchitektur (im Wesentlichen x86) über Bord geworfen wird oder eben auf andere Kernelarten zurückgegriffen wird. Ob das in 15 oder 50 Jahren der Fall sein wird, spielt dabei keine Rolle, Linux hat in beiden Fällen ein Problem.
50 Jahre, wird jetzt manch einer sagen, ist so lange, daß man es ohnehin nicht überblicken kann. Richtig, aber UNIX - der Urvater aller modernen Betriebssysteme - feiert gerade in diesem Jahr seinen Fünzigsten und erfreut sich immernoch guter Gesundheit.

Egal, zurück zum Thema.
Worum es geht ist Folgendes: Linux hat einen monolithischen Kernel, der für x86 entworfen wurde. Es hat sich zwar als äußert portierbar erwiesen, aber auf einigen - als exotisch geltenden Hardwarekonfigurationen zickt es. Das heißt wenn sich die Prozessorarchitektur wirklich mal radikal ändert (wer weiß, was die am MIT oder bei INTEL sich ausdenken) ist das Ende der Fahnenstange erreicht für Linux.

Auf der anderen Seite kann es aber auch sein, daß wir unsere derzeitige Architektur noch 50 Jahre behalten, und die Betriebssysteme anders versuchen Geschwindigkeit herauszupressen. Distributed computing ist hier das Stichwort. Dafür eignen sich Mikrokernel aber wesentlich, wesentlich besser. Zumal das auch (in Ermangelung eines Quantencomputers) die einzige Möglichkeit ist, echtes Multitasking in die Machine zu bekommen (Nicht gewußt? Prozesse laufen im Rechner gar nicht gleichzeitig ab!). Die Rechenleistung könnte man damit extrem erhöhen ohne einen Paradigmenwechsel bei der Hardware zu brauchen. Der Heimanwender hätte davon zwar vermutlich wenig, weil ich mir nicht vorstellen kann, daß wirklich jemand bereit ist, seine Rechenleistung anonym zu teilen, aber Firmen und der Wissenschafts- und Forschungsbetrieb würden extrem profitieren.

Einerlei, Linux stinkt ab, weil es den falschen Kernel hat. Die haben zwar damals das Problem im Grunde erkannt, und die Modulverwaltung eingeführt, sollte es aber wirklich so kommen wie oben beschrieben, ist das ungefähr so, als hätte man sich ein Heftpflaster auf einen abgerissenen Oberschenkel geklebt.
Wer sich dafür interessiert kann ja mal nach der Debatte googlen, die Torvalds und Tanenbaum seinerzeit geführt haben. Da hat selbst Torvald zugegeben, daß er einen Mikrokernel im Grunde genommen hübscher findet. (MINIX an die Macht!).
Microsoft hat das übrigens relativ früh begriffen und deshalb schon in NT3.1 und fortdauern zumindest Hybridkernel "verbaut". Andererseits haben die natürlich auch die Ressourcen dafür.

Wie gesagt, das ist alles allgemein und spekulativ, aber ich finde das sind faszinieren Gedankenspiele.

Benutzeravatar
Moredread
Verschwörungsfreak
Verschwörungsfreak
Beiträge: 1176
Registriert: 19.12.2006 - 13:04
Kontaktdaten:

25.04.2009 - 10:11

Nicht gewußt? Prozesse laufen im Rechner gar nicht gleichzeitig ab!
Das mag mal zu Zeiten von Single-Cores wahr gewesen sein, aber selbst da nicht immer. Dank Hyperthreading kann ein einzelner Kern durchaus zwei Prozesse gleichzeitig abarbeiten. Und eine CPU mit Hyperthreading und mehreren Kernen kann noch mehr Prozesse gleichzeitig verarbeiten.
In Religionskriegen geht es darum, wer den cooleren imaginären Freund hat.

Benutzeravatar
Thorismund
Rat der 33
Rat der 33
Beiträge: 659
Registriert: 28.05.2007 - 20:30
Kontaktdaten:

25.04.2009 - 13:04

Und nicht vergessen MS alles dagegen tun wird
weil ohne MS System ist Bill Große Goldesel Futsch
Hallo weis das auch doch .Jeder hat seine Meinung , darum las jedem seine Meinung die er hat

Tronamdo
Mystic-Man
Mystic-Man
Beiträge: 113
Registriert: 17.10.2008 - 00:30

25.04.2009 - 13:14

Um zu scheitern, brauch ich ein Ziel. Das Ziel von Linux ist nicht auf jeden Desktop zu landen. Jemand der gerne seine Software unter Linux nutzen möchte die er sonst unter WIndows hatte und für die es keine Linux-Version gibt, sollte bei Windows bleiben.

Ich bezweifle, dass Linux eines Tages von dem Großteil der weltweiten Server verschwindet im Internet verschwindet und das Apaches zukünftigt fast ausschließlich auf Windows-Servern laufen werden.

Benutzeravatar
Dhe
Verschwörungsfreak
Verschwörungsfreak
Beiträge: 1437
Registriert: 16.11.2005 - 17:57

25.04.2009 - 13:51

Moredread hat geschrieben: Das mag mal zu Zeiten von Single-Cores wahr gewesen sein, aber selbst da nicht immer. Dank Hyperthreading kann ein einzelner Kern durchaus zwei Prozesse gleichzeitig abarbeiten. Und eine CPU mit Hyperthreading und mehreren Kernen kann noch mehr Prozesse gleichzeitig verarbeiten.
Ja und nein.

Das meine ich nämlich nicht. Auch da läuft maximal ein Prozess pro Kern ab, der dann vom Scheduler unterbrochen und neu zugeteilt wird. Geht ja auch rein physikalisch nicht anders. Das heißt wenn ich acht Kerne habe, können an einem gegebenen Zeitpunkt auch nur acht Prozesse verwaltet werden. Im Prinzip ist das also distributed computing auf kleiner Ebene.

Wie sieht es aber aus, wenn ich Unmengen an Daten habe und 40000 Prozesse wirklich gleichzeitig ablaufen lassen will, weil sonst kein Ende in Sicht ist. Ich glaube eher nicht, daß jemals ein Rechner mit 40k Kernen verkauft wird.
Und nicht vergessen MS alles dagegen tun wird
Microsoft kann gegen Linux ungefähr soviel tun, wie die Amerikaner gegen den Vietcong.
Ich bezweifle, dass Linux eines Tages von dem Großteil der weltweiten Server verschwindet im Internet verschwindet und das Apaches zukünftigt fast ausschließlich auf Windows-Servern laufen werden.
Wer weiß. Vielleicht kommt Linux auch eines Tages an den Punkt der "Windows-Singularität" und irgendjemand der abgegessen ist setzt sich wieder hin und pfuscht am UNIX-Core rum, was dann als nächste Revolution angepriesen wird. Ist ja auch schon passiert.

Wie auch immer im Prinzip interessierte mich Userland gar nicht so sehr. Ich habe mir mehr Gedanken über ein paar konzeptionelle Probleme gemacht, die der Linuxkern bei der Verwaltung der Hardware hat.

Benutzeravatar
Thorismund
Rat der 33
Rat der 33
Beiträge: 659
Registriert: 28.05.2007 - 20:30
Kontaktdaten:

25.04.2009 - 14:12

Ich denke wenn es eine richtige Gruppe mal gibt kann MS auch nicht mehr viel tun

Aber ich bin kein PC Profi und muß auch bei MS bleiben Linux ist für leien leider noch zu schwer

Bin mal gespannt ob es mal LinuxWin je gibt das auf einem Rechner Wahlweise alles zu schalten ist , Glauben tu ichs leider nicht
Hallo weis das auch doch .Jeder hat seine Meinung , darum las jedem seine Meinung die er hat

Benutzeravatar
Dhe
Verschwörungsfreak
Verschwörungsfreak
Beiträge: 1437
Registriert: 16.11.2005 - 17:57

25.04.2009 - 14:48

Gibts doch schon. Entweder du installierst zwei und entscheidest dich jeweils beim Booten, oder du läßt die in irgendeiner Box laufen. Ich verstehe halt nur nie, warum das jemand will.

Benutzeravatar
Thorismund
Rat der 33
Rat der 33
Beiträge: 659
Registriert: 28.05.2007 - 20:30
Kontaktdaten:

25.04.2009 - 17:58

Weil man Angst hat fall Linux nicht so Läuft das man an seine dateinen nicht mehr kommt
Hallo weis das auch doch .Jeder hat seine Meinung , darum las jedem seine Meinung die er hat

Benutzeravatar
Dhe
Verschwörungsfreak
Verschwörungsfreak
Beiträge: 1437
Registriert: 16.11.2005 - 17:57

25.04.2009 - 19:47

Das bezog sich auch mehr auf die Virtualsierung. Den Nutzen davon verstehe ich nicht.

Benutzeravatar
Moredread
Verschwörungsfreak
Verschwörungsfreak
Beiträge: 1176
Registriert: 19.12.2006 - 13:04
Kontaktdaten:

26.04.2009 - 10:05

Dhe hat geschrieben:Das meine ich nämlich nicht. Auch da läuft maximal ein Prozess pro Kern ab, der dann vom Scheduler unterbrochen und neu zugeteilt wird.

Nein, hier laufen - Hyperthreading vorausgesetzt - zwei Prozesse pro Kern. ;)


Dhe hat geschrieben:Wie sieht es aber aus, wenn ich Unmengen an Daten habe und 40000 Prozesse wirklich gleichzeitig ablaufen lassen will, weil sonst kein Ende in Sicht ist. Ich glaube eher nicht, daß jemals ein Rechner mit 40k Kernen verkauft wird.
Da lasse ich mich mal überraschen. Grafikkarten könnten das dereinst beherrschen. Aber ich schätze, das andere Sachen mehr Leistung bringen. Vor allem ist das ganze auf Softwarebene mit n-tausend Kernen irgendwie schwierig zu realisieren ^_^
In Religionskriegen geht es darum, wer den cooleren imaginären Freund hat.



Zurück zu „Computer und Internet“