Archive for the ‘Computer’ Category

Es geht weiter

Heute nach dem ersten Tag bin ich rechtschaffen müde. Die Teilnehmer starten nicht bei Null, zumindest 6 von den 8 tun das nicht. Inzwischen hat sich der Zeitplan auf den Jänner ausgeweitet und ich habe noch zwei Dienstreisen gewonnen.
Je eine Woche Sofia im November und im Dezember. Eine Woche Belgrad war eh eingeplant.
Und eben habe ich erfahren, dass ich möglicherweise ein Testseminar an einer Uni in Belgrad abhalten soll. (ein bezahltes)

Man könnte sagen: momentan läuft es gut. Tut es ja eigentlich eh fast immer. Aber heute bekam ich quasi die Bestätigung, dass die Arbeit der vergangenen Monate wirklich für sehr gut befunden wurde. Da kann man noch so eingebildet sein: wenn das Lob von außen kommt, zählt es doch mehr 😉

Ich bin geschlaucht

Ich habe jetzt ein viertägiges Workshop gegeben, welches mit einer „amtlich“ überwachten Zertifizierungsprüfung abschließt.
Heute umd 15:00 war ich noch leicht frustriert, weil die ersten Feedback-Formulare ungefähr zu 50% negativ und nur zu 50% positiv waren.
Während die Teilnehmer ihre Prüfung hatten, schwitzte ich in der Sauna. Danach erfuhr ich, dass es 11 von 12 geschafft hatten. Das ist zuwar weniger als eine 100%ige Erfolgsquote, die ich sonst habe, aber ich hatte nur 6-8 positive Ergebnisse erwartet.
Danach fuhr ich mit dem Bus zum Bahnhof und dort mit Railjet nach Wien. Nach drei Bier war ich so müde, dass ich gerade noch vernünftig nach Hause kam.
Und jetzt gehe ich schlafen … (aber ich bin zufrieden)

really funny

Mittlerweile ist es so, dass der Link auf einen meiner letzten Kommentare mich zwar an die Adresse des Kommentar bringt, mich aber gleichzeitig ausloggt.
Ich wende mich gar nicht mehr an Hilfe, weil ich es für einen Softwarefehler halte.
Und ich werde normalerweise dafür bezahlt, dass ich welche finde.

Mittlerweile ist es mir hier aber SCHEISSEGAL. Ich nehme es, wie es kommt.
EVERYTHING IS VERY, VERY STRANGE…

Und dafür geniere ich mich nicht!

Aufgrund eines Kommentars auf einen Artikel im Standard bat ich um Quellenangabe, war aber zu unduldig, auf eine Antwort zu arbeiten.
Und oh Wunder, auf eine Suchanfrage, die sogar noch im Eingabespeicher des Suchtextfeldes war, fand ich plötzlich einen umfassenden Eintrag über das gesuchte Thema.
Es geht um den Computer, (Guidance System) der für die Landung der Mondkapsel verantwortlich war.
3,8 Kiloworte Speicher und eine CPU, die mit ungefähr 44 Kilohertz lief. Nur zum Vergleich: ein Commodore VC20, den die jüngeren Leser vielleicht noch kennen, war bereits 20x schneller.

Jetzt gibt es auch von der Nasa die Schaltpläne zu diesem Computer.
http://klabs.org/history/ech/agc_schematics/index.htm#DUAL_NOR_GATE
Wenn es heißt: „4-Bit-Module“ dann erkenne ich, dass es sich um einen 4-Bit Full-Adder handelt. Den gab es 5 Jahre später als TTL 7483 von Texas Instruments zu kaufen.
Aus Zuverlässigkeitsgründen wurde der gesamte Rechner nur aus einer Art von Bausteinen aufgebaut. (Triple NOR-Gate) Das geht zu sehr ins Detail für Nichttechniker.
Es gibt auch ein sehr interessantes Interview mit Allan Klumpp, ( http://www.netjeff.com/humor/item.cgi?file=ApolloComputer )
in dem beschrieben wird, wie das Programm LUMINARY tatsächlich einen Programmfehler hatte, der die Kapsel zum Absturz hätte bringen können. Das ist für mich, der sich ja von Berufs wegen mit Software-Fehlern beschäftigt, wunderbares Quellmaterial.
Wofür ich mich allerdings nicht geniere, ist der Umstand, dass ich die Schaltpläne heute noch lesen und verstehen kann. Nicht nur das: meine Diplomarbeit, die vier Jahre nach der Mondlandung entstanden ist, war komplizierter als die Schaltungen im Mondcomputer. Und man konnte damit mit einem Elektronenstrahl frei programmierbare Zeichen in Mikrometergröße in ein Metallstück gravieren.
Mit der Computerleistung, die wir heute zur Verfügung haben, sollten sich eigentlich Asylantenprobleme und Vorbeugung gegenüber Naturkatastrophen lösen lassen. Statt dessen produzieren wir Computerspiele, deren wichtigstes Ziel es ist, den anderen abzuschießen.
Wir Menschen sind ganz schön blöd!

Firefox, die Zweite

Also eigentlich ist es ja Version 4.
Ich gönne einmal meinen LeserInnen ein bisschen Schadenfreude. Ich bin zu blöd, um diese Version anständig zu installieren.

Da ich keine Lesezeichen und keine Einstellungen fand, habe ich die Installation wiederholt. Das muss ich mit Administratorrechten machen, sonst sagt er mir, dass die Installation nicht vollständig abgeschlossen ist. Er trägt sich selbst als Standardbrowser ein, obwohl diesbezüglich keine Frage kommt. Und das Ergebnis ist wie gehabt.
Eigentlich sollte es mir ja egal sein. Den FF brauche ich nicht und die Lesezeichen hole ich mir halt mit einer anderen Version herein und dann endgültig tschüss.
Da haben sie so lange an der Version herumgegurkt. Und dann das!

Aber ich frage mich, was die dabei gedacht haben…
Nachtrag: es gibt eine Checkbox für den Wunsch „Standardbrowser“. Die ist by default angekreuzt.

Firefox, die Zweite

Also eigentlich ist es ja Version 4.
Ich gönne einmal meinen LeserInnen ein bisschen Schadenfreude. Ich bin zu blöd, um diese Version anständig zu installieren.

Da ich keine Lesezeichen und keine Einstellungen fand, habe ich die Installation wiederholt. Das muss ich mit Administratorrechten machen, sonst sagt er mir, dass die Installation nicht vollständig abgeschlossen ist. Er trägt sich selbst als Standardbrowser ein, obwohl diesbezüglich keine Frage kommt. Und das Ergebnis ist wie gehabt.
Eigentlich sollte es mir ja egal sein. Den FF brauche ich nicht und die Lesezeichen hole ich mir halt mit einer anderen Version herein und dann endgültig tschüss.
Da haben sie so lange an der Version herumgegurkt. Und dann das!

Aber ich frage mich, was die dabei gedacht haben…
Nachtrag: es gibt eine Checkbox für den Wunsch „Standardbrowser“. Die ist by default angekreuzt.

KI

[Eigentlich habe ich das ja auf Fisch und Fleisch gepostet, doch vielleicht gibt es einige hier, die es interessiert.]
Ich wurde gebeten, die Geschichte mit der künstlichen Intelligenz etwas »populärwissenschaftlicher« zu erklären, damit sie leichter vorstellbar wird. Es gibt die Metapher »in ein Wespennest zu stoßen«. Ich fühle mich jetzt so, als hätte ich das getan. Ich selbst bin ja kein Spezialist, der sich andauernd mit den damit verbundenen Problemen beschäftigen muss oder soll.
Allerdings kenne ich bestimmte Begriffe und die damit verbundenen Forschungsgebiete. Auf Wikipedia gibt es recht gute Zusammenfassungen, die teilweise aber nicht mehr ganz leicht verständlich sind, es sei denn man geilt sich bereits an den Schlagworten auf.
In Hinblick auf die Go-Software, die unter anderem mit zwei verschiedenen neuralen Netzwerken arbeitet, fange, fangte, fung oder fing ich mit dem Begriff »künstliche neurale Netzwerke« an.
Frei nach dem Buch »Die Feuerzangenbowle« von Spoerl fange ich also mit dem Satz an: »Da stelle ma uns ganz dumm, …«. In bezug auf »KNN« (künstliche neurale Netzwerke) stellen wir vor, dass wir ein System haben, welches »lernen« kann. Das trauen wir eigentlich nur dem Menschen und allenfalls manchen Tieren zu, denen wir Kunststücke beibringen wollen.
Neuronen sind im Hirn oder auch sonst wo und bieten quasi das Informationsnetzwerk im Menschen. Wir behaupten einmal, dass die Neuronen, eigentlich Nervenzellen, notwendig sind, dass wir lernen können. Wir haben gehört, dass wir sehr, sehr viele davon haben und dass es noch viel mehr Verbindungen zwischen den einzelnen Neuronen gibt. Bis vor einiger Zeit war die Anzahl der Neuronen so groß, dass man keinen Computer bauen konnte, der rein mechanisch ein entsprechendes Gegenstück zum Hirn darstellen konnte. Das stimmt vermutlich nicht mehr, soll uns aber momentan nicht kümmern. Wir werden nämlich auf der Seite der KNN auf die Abgrenzung zur Neuroscience verwiesen. (Neuroscience ist wohl selbsterklärend, es gibt aber noch die Abgrenzung »computational neuroscience«, das klingt ja fast wie ein Bezug zum Computer.)
Und jetzt wird es interessant. Lapique führte 1907 das Integrate-and-Fire-Neuronenmodell ein, das wegen seiner Einfachheit bis heute eines der beliebtesten Modelle der Computational Neuroscience darstellt. Es gibt einen Forschungsbaukasten für Jugendliche (und jugendlich gebliebene Erwachsene) in denen man einen Baustein hat, der so ein Neuronenmodell simuliert. Ich habe diesen Baukasten nicht, aber vielleicht kaufe ich ihn mir noch einmal. (Der ist nämlich überhaupt super. Damit kann man z.B. auch ein EEG-Gerät bauen. Aber das gehört hier nicht herein.)
Die Funktionsweise dieses Modells wurde 50 Jahre später in der Praxis anhand eines Tintenfisches erforscht und sozusagen als richtig dargestellt. Die Typen, die sich damit beschäftigt wurden auch belohnt. Sowohl Hodgkin und Huxley als auch Hubel und Wiesel erhielten für ihre Arbeiten den Nobelpreis für Physiologie oder Medizin (1963 und 1981).
Man darf also davon ausgehen, dass die Forschung, die sich mit der Funktionsweise des Gehirns beschäftigt, nichts Esoterisches an sich hat. Allerdings habe ich mir während meiner Studienzeit in den 70erjahren ein Buch über das Gehirn gekauft. Das meiste darin enthaltene, kann heute als überholt oder zumindest so erweitert gesehen werden, dass man mit dem Buch heute nicht sehr weit kommen würde.
Die Arbeiten eines weiteren Forschers, David Marr konzentrierten sich auf die Interaktionen zwischen Neuronen verschiedener Areale wie z. B. dem Hippocampus und der Großhirnrinde. Er legte eine Theorie des Sehens vor, die sich an den Prinzipien der elektronischen Datenverarbeitung im Computer orientiert. Er gilt als einer der Begründer der Neuroinformatik.
Und damit beende ich das heutige erste Kapitel mit einer realen Anwendung, die zeigt, welche Fortschritte die Technik inzwischen gemacht hat. Die visuelle Verarbeitung vom Auge zum Hirn ist ziemlich »intelligent«. In den 80erjahren hatte ich mit dem Thema Bildanalyse zu tun. Damals konnte man einfache bildanalytische Operationen mit Hilfe von Computern durchführen, allerdings dauerte es ziemlich lange. Eine Dilatation, mit der man eine zerfranste Kontur auf zusammenhängend erweitern konnte, brauchte für die Berechnung eines 256*256-Bildpunktebildes in Schwarzweiß 20 Sekunden. Das ist vielleicht einer von zehntausend Schritten, die notwendig sind, damit ein Flaschenpfandrückgabeautomat heute das Etikett einer Bierflasche lesen kann, das Bild auf der runden Etikette geradebiegen und auswerten kann. Das funktioniert heute in einer Zehntelsekunde.
Das bedeutet einerseits, dass ich ein alter Mann geworden bin, der sich allerdings freut, diese ganze Entwicklung mitverfolgen zu können. Andererseits lässt sich daraus ablesen, das einiges, was heute möglich ist, vor 35 Jahren als unmöglich gegolten hat.
Es sollte als durchaus als Anlass dienen, auch andere »unmögliche« Ergebnisse als realisierbar anzunehmen.
Nachtrag: den Baukasten scheint es nicht mehr zu geben. Schade. Vermutlich wird das heute nur mehr über die Simulation durchgeführt.
2. Nachtrag: es scheint ihn doch noch zu geben. Zumindest gibt es noch die Dokumentation über die Versuche.
Versuchsbeschreibung
Tolle Sache, nicht wahr?

die nächsten 37 Jahre

Überraschenderweise wurde ich auf einen Eintrag auf einer schon lange vernachlässigten Blogseite mit dem Titel „Das 37. Jahr“ angesprochen. Mittlerweile müsste es „Das 40. Jahr“ heißen, aber das tut jetzt nichts zur Sache.
Die Frage war: wie wird sich Software und mein Gebiet Test in den nächsten 37 Jahren entwickeln.
In den letzten 37 Jahren habe ich Technologien kommen und auch schon wieder gehen sehen, von denen ich als Kind nicht glauben hätte mögen, dass sie möglich sind. Eigenartigerweise waren das nicht die genauso utopistischen Dinge wie Mobile Phones oder Laptops. Vielmehr las ich kürzlich, dass das Telefax ähnlich wie das Telex in Vergessenheit geraten wird, wenn die digitale Signatur einmal allgemeine Gültigkeit und durchgängigen Gebrauch erfährt.
Die Frage richtete sich aber nach den Inhalten Qualität und Test aus.
Wird es eine Veränderung geben?
Ich sage ja.
Bis heute hält sich eine merkwürdige Konstante in der Software-Entwicklung. Es ist die Anzahl der Gesamtfehler in einem Programm bezogen auf die Große (gemessen in Code-Zeilen) oder auf die ausgelieferte Funktionalität (gemessen in Function Points).
Dies erscheint paradox, weil die Werkzeuge zur Software-Erstellung immer leistungsfähiger und vor allem hilfreicher werden. Ein allfälliger Nutzeffekt konnte aber bisher nicht lukriert werden, weil im gleichen Zeitraum die Komplexität der Programme in astronomischen Maßstäben gestiegen ist.
Jetzt könnte das Spiel endlos lange – ohne Veränderungen der Parameter – weitergehen.
Ich behaupte aber, dass die Komplexität der Programme durch eine Zunahme der Anforderungen steigt. Da denke ich nun, dass wir bald keine neuen Anforderungen mehr erfinden werden können, ohne dass die Anforderungen in Richtung verstärkte Robustheit, bessere Konnektivität und bessere Fehlerbehandlung gehen. Alle diese Merkmale wirken aber auch indirekt auf die Qualität des Codes zurück. Bei weiterhin zunehmender Werkzeugverbesserung und weniger rasant ansteigender Komplexität wird sich insgesamt die Qualität der Software erhöhen. Software Test wird allgemein verstärkt bereits im Anforderungsmanagement eingesetzt werden und die Welt wird schön werden.
Ich bin gespannt, ob ich recht gehabt haben werde.

Aufräumen vor der Reise

Morgen fahre ich aus beruflichen Gründen nach Sofia. Ich hätte auch nein sagen können, doch ich mache es gerne. Ich war noch nie dort und bin von Natur aus neugierig, also passt das mit den zwei Wochen ganz gut.
Ich wollte an sich Reiseabrechnungen machen, weil das Monatsende bereits in Aussicht ist und ich sonst meine Spesen erst einen Monat später bekomme.
Das lasse ich sein, weil ich sicher stellen will, dass mein Computer (Laptop) in Ordnung ist und ich alles repliziert habe, was ich möglicherweise offline brauche. (Also mache ich die morgen vor dem Abflug:)
Dabei sehe ich jetzt den Startbildschirm des Laptops an. Und stelle folgende Inventur an Programmen fest.
Ich stelle fest, dass einige am Startbildschirm sind, die ich nicht verwende.
Jetzt habe ich aufgeräumt. Dabei habe ich festgestellt, dass ich andere Programme schon lange (> 3 Monate) nicht mehr benützt habe. Dabei fühle ich mich unbehaglich. Denn das sind die Programme, bei denen ich produktiv arbeite und etwas Neues erzeuge. Irgendwie schade.
Naja, wenigstens TeXworks kommt bald wieder dran, weil ich zwei Papers vorbereiten sollte:)

Ab heute 9:30

wird zurückgearbeitet.
Bis Weihnachten.
Bin auf den Erfolg gespannt. Da mir das Unterrichten gefällt, habe ich mich bereit erklärt, auch im Dezember zu arbeiten, obwohl ich mir eigentlich Zeitausgleich nehmen müsste.
Jetzt bin ich gespannt, ob ich bis Weihnachten aus absoluten Neulingen eine schlagkräftige Software-Tester-Gruppe zusammen bekomme.
Warum es schwieriger als normal sein könnte:
Sprachprobleme
wenig fachliche Kenntnisse
keine professionellen Testkenntnisse
Der Lehrplan steht schon. Aber die Übungen muss ich noch textlich ausarbeiten. Und selbst muss ich auch noch etwas dazu lernen.
Es wird wirklich spannend.
Aber ehrlich gesagt, man is born to have adventure.




  • Neueste Beiträge

  • Tage mit Einträgen

    März 2026
    M D M D F S S
     1
    2345678
    9101112131415
    16171819202122
    23242526272829
    3031  
  • Was einmal war