Archive for the ‘Computer’ Category

Alle Jahre wieder

JavaException: java.lang.RuntimeException: org.jgroups.TimeoutException: TimeoutException
Kennt man ja. Und ich nehme an, dass sich andere auch darüber ärgern.

Pausenfüller

Configuring Windows updates
12% complete
Do not turn off your computer.
Na ja, in der Anzeige verharrt der Computer jetzt schon einige Minuten. Es ist mein Laptop. So schreibe ich das halt auf meinem Desktop zuhause.
Irgendwann wird er ja wohl fertig konfiguriert haben.
Hoffe ich…
Habe auch schon manchmal eine Stunde gewartet.

Eitelkeit

Ich bin eitel, aber in der Regel versuche ich mich, darüber lustig zu machen.
Gestern, beim Weihnachtspunsch, den unsere Firma für unsere Kunden veranstaltet, war ich aber doch leicht erstaunt, als ein Gast mich seinen Kollegen als „die Testlegende“ vorgestellt hat.
Ich muss gestehen, dass mich diese Bezeichnung sehr gefreut hat, in Österreich gibt es vermutlich noch zwei Personen, die vielleicht so bezeichnet werden sollten.
Ich selbst denke jetzt, dass ich ein bisschen schneller sterben sollte, damit der Anspruch auch gerechtfertigt ist:)

Computer-Nostalgie

Anlässlich eines Kommentars bei pjerunje erinnerte ich mich an einen Computer, der für mich schon etwas sehr Besonderes darstellte.
HP-9845
Ich programmierte auf diesem Computer zu einer Zeit, als es bereits die ersten Commodore zu einem Preis von 2.500 € (nicht inflationsbereinigt) gab, während das obige Gerät damals gut und gerne 35.000 € gekostet hatte. Beide waren in BASIC zu programmieren.
Den Commodore musste ich mit eigenen Assemblerprogrammen auf Vordermann bringen, während es für den HP die notwendigen Schnittstellenmodule fur die Automation von Messgeräten schon serienmäßig gab, wie z.B. ein IEEE-488-Interface, wobei der Computer den Controller darstellte.
Das HP-BASIC war eher dem MBASIC, welches auf CP/M lief verwandt als dem Commodore-Basic. Wenn ich mich richtig erinnere gab es bereits vorprogrammierte ARRAY-Operatoren. Der Rechner war eindeutig von Technikern für Techniker und Wissenschaftler gemacht.
Die Tastatur war äußerst robust und sher zuverlässig. Der Schirm natürlich nur monochrom.
Der Rechner erschien als riesiges Ding, er war weitaus größer als der Commodore.
Etwas später kam dann der HP-85 heraus.
HP-85
(Die Philosophie des HP-85 schloss an den 9845 an, doch war das Gerät natürlich bereits viel billiger, ich glaube, dass es ungefähr 7.000€ gekostet hatte.)
Aus der dort vorzufindenden Beschreibung möchte ich zwei sehr interessante Punkte zitieren.
Der Prozessor war speziell für die 80er-Baureihe entwickelt worden und zeichnete sich durch einige Fähigkeiten aus, die für 8-Bit-Prozessoren außergewöhnlich waren. So enthielt er sehr viele Register (64 Stück), die für manche Operationen auch zusammengeschaltet werden konnten. So konnte der Chip mit einem Maschinensprachebefehl z.B. zwei 64-Bit-Zahlen addieren. [Hervorhebung von mir]
Die HP-85 beeindruckt auch heute noch durch zeitloses Design. Das Gerät war viele Jahre lang in der technisch-wissenschaftlichen Anwendung sehr beliebt. Der kompakte Computer wurde zur Steuerung von Maschinen oder Versuchsaufbauten verwendet und konnte Messergebnisse aufnehmen, speichern und grafisch aufbereitet wiedergeben. Für viele Anwendungen wäre das Gerät auch heute noch vollkommen ausreichend.
Dem letzten Satz kann ich ohne weiteres zustimmen. Ist das nicht ein Wahnsinn, wenn man bedenkt, dass das Gerät vor 30 Jahren entwickelt wurde.
Und jetzt vergleiche man das mit der Entwicklung von Mobiltelephonen, die bereits nach vier Monaten veraltet erscheinen!

MÖGLICHE VERTEIDIGUNGSSTRATEGIEN

Kommentar zu der Antwort der twoday-Betreiber, dass es sich bei den SPAM-Attacken weder um Hacker noch um BOTs handelt.
Da in den meisten Fällen in wenigsten einem der Beiträge irgendein Produkt beworben wird, gehe ich – unter Ausschließung, dass es sich um eine direkte Attacke gegen twoday handelt – davon aus, dass jemand versucht, mit möglichst viel Platzierungen bestimmter Produkte irgendwelche Rankings in Suchmaschinen hoch zu treiben.

Was könnte man dagegen tun?
1) einen einfachen Filter setzen, der anspricht, wenn Blogname und username identisch sind. Dies nicht automatisch melden sondern eine automatische email auf deutsch(!) aussenden, die die Regel erklärt, dass das nicht sein darf.
(Anmerkung: früher waren die Namen ja noch künstlicher, mittlerweile wird ein echter Name mit einer phonetisch plausiblen Zeichenfolge ergänzt.) (Das wird nicht lange wirken, aber es ist eine zusätzliche Erschwernis.)
2) Anmeldungen mit einer Zeitverzögerung versehen, wonach am ersten Tag nur eine Meldung gepostet werden darf. (Damit ist der Nutzeffekt für die kommerziellen Neuanmelder wesentlich geringer)
2a) wenn 2) nicht machbar erscheint, in Abstand von einer Stunde einen Watchdog über die Datenbank laufen lassen: Filter: Anmeldungen der letzten Stunde, genau drei Artikel gepostet. Wenn Sprache englisch, dann einfach killen. Wenn sprache deutsch, Mail ausschicken. (Wird nicht sehr viele geben, welche innerhalb von einer Stunde drei Postings in den vorhandenen Längen posten können.
3) Ich kenne die gmail-Adressen nicht. Es würde mich aber nicht wundern, wenn die nicht ebenfalls mit dem Blog-Namen korrelieren sollten.

Es gibt noch mehr Methoden. Unter der Vorraussetzung, dass es sich nicht wirklich um feindliche Attacken handelt, werden die Invasoren aber nicht soviel Aufwand treiben, dass sie die twoday-Abwehrmaßnahmen bekämpfen. (Außer es gibt dort einen freak, der es als Herausforderung ansieht.)
4) etwas tiefgehender. ich kenne die antville software nicht, daher weiß ich nicht, in wie weit man einen entsprechenden Modul bei der Anmeldung einbinden kann. Heute lässt sich die Anmeldung ja relativ leicht in Selenium automatisieren. (Wie die das mit dem Captcha hinkriegen, verstehe ich allerdings noch nicht.) Jetzt kann man aber nicht jede Web-Oberfläche mit Selenium ansprechen. Google verändert z.B. seine GUI-Elemente hinsichtlich der Adressierbarkeit regelmäßig. Ein Skript, welches jetzt läuft, scheitert vielleicht schon in zwei Stunden. Wenn der Anmeldemodus mit einem Abfragefeld verbunden ist, welches nicht so leicht automatisiert erforscht werden kann, dann könnte das auch eine große Hemmschwelle sein.

Bitte mir es nicht übelnehmen, wenn ich da besserwisserisch erscheine. Vielleicht haben Sie schon alles ausprobiert. Aber ich finde es entsetzlich, – auch hinsichtlich der Begrenzung auf 150 Einträge – dass oft alle Übersichtsseiten von SPAM blockiert sind.

Ich poste das auch bei mir, vielleicht haben andere Leute auch noch gute Einfälle.

Ein kleiner Versuch

dieser Text ist nicht besonders originell. Das Besondere daran ist der Umstand, wie er zu Stande gekommen ist. Ich habe ihn nämlich nicht getippt sondern in das Mikrofon gesprochen. Bis hierher musste ich nichts korrigieren.
Ihr naht euch wieder schwankende Gestalten… Hier musste ich das Wort naht korrigieren. Aufgenommen wurde nämlich: habt. Ich lese undhier jetzt einen Text, der für mich einmal sehr relevant war.
Chefarchitekt eines großen IT-Anwenderunternehmens zu sein, kann ein gefährlicher Job werden. Viele mittelgroße Anwenderunternehmen haben derzeit nicht einmal eine Gruppe für IT-Unternehmensarchitektur oder eine Unterstützungsgruppe für den IT-Vorstand, die sich unter anderem mit IT-Governance beschäftigt.
Mehr diktierte ich jetzt nicht. Obwohl ich einen schnellen Rechner habe, muss ich doch immer wieder warten bis die Umsetzung zu Ende übersetzt hat. Allerdings ist die Fehlerfreiheit recht beachtlich. Jetzt noch einmal einen Faktor zwei für die Rechnerbeschleunigung erreichen und die Sache ist ausreichend schnell.

Twoday today

Langsam erkenne ich die Sinnhaftigkeit des Namens der Blogplattform.
Heute habe ich mir aus gegebenen Anlass einmal die Mühe gemacht, Zeiten zu stoppen.
Beim erstmaligen Aufruf von http://twoday.net sind bis zu 38 Sekunden Wartezeit möglich. Da die Datenmenge nicht so groß ist, könnten daran auch Probleme mit der Auslagerungsdatei des Rechners erkennbar sein. Dafür kann twoday nichts.
Um auf meine oder andere Seiten zu kommen, warte ich zwischen 5 und 15 Sekunden. Erneut twoday aufgerufen kann dann manchmal bereits in 14 Sekunden zum Erfolg führen.
Im Internet sind das verheerend lange Antwortzeiten. Vor allem, weil sich nichts am Bildschirm tut. Wenn eine Seite lange für den Aufbau wartet, weiß man wenigstens, was los ist.
Die Blogfrequenz kann nicht schuld sein. Die ist heute weit geringer als noch vor einem Jahr.
Die Spams sind etwas weniger geworden.
Also woran liegt es dann?
Habe im Help-Forum auch schon gepostet. Angeblich ist die schlechte Performance von seiten der Betreiber nicht nachvollziehbar.
Aber im Namen steckt ja bereits die ganze Lösung. Twoday (besser twodays) bezeichnet ja „zwei Tag“. Ich melde meine Präsenz an und am nächsten Tag bekomme ich dann die Information.
Durchaus schlüssig!

Erinnerung

für mich selbst:
http://en.wikipedia.org/wiki/VAX
Das waren noch Zeiten …
Zur PDP-11
http://de.wikipedia.org/wiki/Programmed_Data_Processor
Das war mein Baby:
http://de.wikipedia.org/wiki/PDP-11
1993 hatte ich eine PDP-11/10 auf der TU zu meiner alleinigen Verfügung. Das muss man sich vorstellen. König im eigenen Reich. Dafür kannte ich mich damals aber auch super aus.

Datenschutz Gegenteil

Es geht um die „Cloud“.

Ich selbst bin kein absoluter Gegner von Cloud-computing, doch ich bin immer skeptisch, wenn sich etwas als Hype darstellt.
Vor 14 Jahren war ich schon einmal mit einer Wolke in Berührung gekommen. Damals wurde in Plänen das WAN (Wide-Area-Network) als Wolke ge- und bezeichnet. Im Vergleich zu heute, war das eine sehr zähflüssige Wolke. Die Daten liefen mit 32 kBaud darüber. (Das war damals schnell für einen Amateur, für ein Unternehmen war es allerdings Schneckengeschwindigkeit. Bestimmte Orte in der Provinz waren halt nicht schneller angebunden.) Die Programmierer vernachlässigten diese Langsamkeit und so wurde schlussendlich eines der größten und teuersten Projekte gegen die Wand gefahren.

Die Probleme mit der Geschwindigkeit gibt es heute nicht mehr. Das Geschäftsmodell der Cloud sieht ungefähr so aus: bestimmte Programme und defacto Hardware werden ausgelagert. Dagegen ist ja noch nichts zu sagen. Die Buchhaltung muss auch nicht in der eigenen Firma gemacht werden und Steuerberatung gehört ebenfalls nicht zur Kernkompetenz eines Klein- und Mittelunternehmens.
Es liegt nun auf der Hand, dass bestimmte Aufgaben der IT, der betrieblichen Versorgung einer Firma mit Geräten und Programmen, an Spezialisten ausgelagert werden. Manchmal geschieht das mit ganzen Subunternehmen, wenn beispielsweise die IT-Abteilung einer Versicherung and die IBM verkauft wird. Mit Cloud hat das noch nichts zu tun.
Mit Cloud werden vor allem Datenspeicher und Anwendungen und ein Teil der Vernetzung in einem Unternehmen (vor allem mit verteilten Standorten) gemeint, die nun nicht – wie der Name suggeriert – irgendwo am Himmel in einer Wolke oder einem Satelliten untergebracht sind, sondern genauso wie sie in der Firma, denen die Daten gehören, in entsprechenden „Serverfarmen“ von einer auswärtigen Firma zur Verfügung gestellt werden.
Auch dagegen ist noch nichts zu sagen.
Jetzt gibt es nicht eine cloud sondern viele. Jeder größere IT-Provider oder jede größere IT-Firma bietet Cloud-Dienstleistungen an. Es gibt also viele zumindest mehrere „Clouds“. Neu ist der Umstand, dass in diesen Clouds jetzt nicht nur die Daten eines Unternehmens bewahrt werden, sondern dass sich viele Firmen in diesem Datenhochhaus einmieten.
Auch dagegen ist noch nichts zu sagen.
Während die IT und die Sicherung von Daten schon jetzt komplex ist, – vor allem zählt die Ausrede eines Herrn Flöttls nicht mehr, dass der Computer abgestürzt sei und alle Daten futsch wären – ist Verfügbarkeit, Backup und die Minimierung von Downzeiten ein Spürchen, eine Spur, eigentlich einen ziemlich Anteil an Arbeit größer geworden. Es handelt sich um neue Verfahren, neue Herausforderung, die wie auch sonst in der IT üblich durch Marketingaktivitäten nicht ausreichend bedacht werden können. Während die Verkaufsabteilung verkauft, rätseln die Techniker noch, wie bestimmte Probleme zu bewerkstelligen sind.
Dagegen ist, wie auch überall sonst, etwas einzuwenden.
Es ist so ähnlich, als würden Pharmafirmen ungetestete Produkte auf den Markt werfen, oder neue Energiesparlampen werden angepreist, ohne ihre Langzeiteinflüsse ausreichend zu prüfen.
Man könnte argumentieren, dass ein bisschen Datenverlust noch nicht die Welt einstürzen lässt. Ich würde im Allgemeinen nur dazu schmunzeln und Zustimmung äußern.
Aber hier irrt der Steppenhund. Wenn sich Datenausfälle entsprechend stark auswirken, kann das Folgen haben, die Fukushima übersteigen.
Das zugehörige Szenario sieht so aus:
Vorab: ich habe diese Daten nur mündlich von Spezialisten bekommen, aber sie wirken plausibel. Wenn eine Bank 3 Tage ohne EDV auskommen muss, geht sie pleite, bei einer Versicherung dauert es immerhin 6 Tage. Durch die notwendigen Geldbewegungen, die nicht ausreichend durchgeführt werden können, weil man mittlerweile von der Verbuchung über EDV abhängig geworden ist, entsteht ein Dominoeffekt, der irgendwann bewirkt, dass das Unternehmen zahlungsunfähig wird.
Bei der Cloud Amazons gab es jetzt einen 36 Stunden-Ausfall, bei dem nicht nur Amazon sondern auch viele Start-up-Unternehmen betroffen waren. 36 Stunden sind eineinhalb Tage. Da bewegen wir uns in einer Größenordnung, die schon im Bereich der kritischen Grenzen liegt.
Bei der Vernetzung der Banken untereinander könnte eine betroffene Bank andere mitreißen. Der Effekt wäre ähnlich wie in der letzten Bankenkrise, die durch andere Gründe verursacht war. Jedenfalls nachhaltig bis in den Lebensbereich von allen von uns.

Ähnlich wie bei Atomkraftwerken liegt die Gefahr nicht so sehr in der Materie selbst, sondern in Megalomanie bzw. Konzentration von „viel“ auf engstem Raum. Damit wird Risiko angehäuft.

Den Ausfall bei Amazon möchte ich jetzt noch nicht überbewerten. Der Einbruch bei Sony Playstation, bei dem kolportierte 77 Millionen Kundendatensätze auspioniert wurden, zeugt aber, dass Großversagen durchaus im Bereich des Möglichen liegen.
Dazu bedarf es noch nicht einmal Stuxnet.

Call to action: nicht Verweigerung sondern kritische Betrachtungsweise ist angesagt. Wie im vorigen Beitrag bereits in den Kommentaren enthalten, kann man sich trotz Wissens nicht vor Manipulation schützen. Doch man kann Warnsignale beachten. Ein wesentliches Warnsignal ist ein Hype. Wenn mir jemand etwas versucht zu verkaufen, obwohl er selber das Produkt nicht genau beschreiben kann und die Für- und Wider entsprechend erklären kann.
Mit den „Fürs“ gibt es in der Regel keine Probleme. Wenn der Verkäufer aber bei den „Widers“ nach dem Techniker ruft, weil es so „kompliziert“ ist, dann stinkt die Angelegenheit.
Und Stinken ist in diesem Fall ein Warnsignal.

Firefox

Ich habe schon einmal geschrieben, dass mir Chrome sehr gut gefällt.
Trotzdem habe ich mir gestern die Firefox Version 4 heruntergeladen.
Obwohl ich mir schon einige Betas zu Gemüt geführt hatte, war der erste Eindruck verwirrend. Ich habe mir gar nicht mehr die Mühe gemacht, die Seite mit den komischen unterschiedlich großen Previews weiter anzusehen.
Geärgert hat mich, dass er sich als Standard-Browser installiert hat, obwohl ich die diesbezügliche Frage eindeutig verneint hatte. Und nach der Installation ging etwas im Bereich der iewin-Library von Python nicht mehr. Hat mich eine Stunde Suche gekostet, wahrscheinlich war es aber nur ein Resteffekt der Installation.
Egal: in nachstehendem Artikel sind ein bisschen die wahren Versäumnisse von Mozilla angeführt. Es ist schade, dass eine so gute Initiative ihr Momentum verloren hat.
Das ist halt EDV…
http://www.zdnet.de/it_business_bizz_talk_tschuess_firefox__war_nett_mit_dir_story-39002398-41550721-1.htm
Nachtrag: die eine Vergleichsgrafik zeigt, dass Firefox die Ressourcen des PCs wesentlich mehr belastet. Das ist für mich ein Indiz für Programmierer, die nichts von Speicherökonomie und Performance kennen. Sehr häufig sind die in der Java-Ecke anzutreffen.




  • Neueste Beiträge

  • Tage mit Einträgen

    Januar 2026
    M D M D F S S
     1234
    567891011
    12131415161718
    19202122232425
    262728293031  
  • Was einmal war