Archive for the ‘Computer’ Category

KI

[Eigentlich habe ich das ja auf Fisch und Fleisch gepostet, doch vielleicht gibt es einige hier, die es interessiert.]
Ich wurde gebeten, die Geschichte mit der künstlichen Intelligenz etwas »populärwissenschaftlicher« zu erklären, damit sie leichter vorstellbar wird. Es gibt die Metapher »in ein Wespennest zu stoßen«. Ich fühle mich jetzt so, als hätte ich das getan. Ich selbst bin ja kein Spezialist, der sich andauernd mit den damit verbundenen Problemen beschäftigen muss oder soll.
Allerdings kenne ich bestimmte Begriffe und die damit verbundenen Forschungsgebiete. Auf Wikipedia gibt es recht gute Zusammenfassungen, die teilweise aber nicht mehr ganz leicht verständlich sind, es sei denn man geilt sich bereits an den Schlagworten auf.
In Hinblick auf die Go-Software, die unter anderem mit zwei verschiedenen neuralen Netzwerken arbeitet, fange, fangte, fung oder fing ich mit dem Begriff »künstliche neurale Netzwerke« an.
Frei nach dem Buch »Die Feuerzangenbowle« von Spoerl fange ich also mit dem Satz an: »Da stelle ma uns ganz dumm, …«. In bezug auf »KNN« (künstliche neurale Netzwerke) stellen wir vor, dass wir ein System haben, welches »lernen« kann. Das trauen wir eigentlich nur dem Menschen und allenfalls manchen Tieren zu, denen wir Kunststücke beibringen wollen.
Neuronen sind im Hirn oder auch sonst wo und bieten quasi das Informationsnetzwerk im Menschen. Wir behaupten einmal, dass die Neuronen, eigentlich Nervenzellen, notwendig sind, dass wir lernen können. Wir haben gehört, dass wir sehr, sehr viele davon haben und dass es noch viel mehr Verbindungen zwischen den einzelnen Neuronen gibt. Bis vor einiger Zeit war die Anzahl der Neuronen so groß, dass man keinen Computer bauen konnte, der rein mechanisch ein entsprechendes Gegenstück zum Hirn darstellen konnte. Das stimmt vermutlich nicht mehr, soll uns aber momentan nicht kümmern. Wir werden nämlich auf der Seite der KNN auf die Abgrenzung zur Neuroscience verwiesen. (Neuroscience ist wohl selbsterklärend, es gibt aber noch die Abgrenzung »computational neuroscience«, das klingt ja fast wie ein Bezug zum Computer.)
Und jetzt wird es interessant. Lapique führte 1907 das Integrate-and-Fire-Neuronenmodell ein, das wegen seiner Einfachheit bis heute eines der beliebtesten Modelle der Computational Neuroscience darstellt. Es gibt einen Forschungsbaukasten für Jugendliche (und jugendlich gebliebene Erwachsene) in denen man einen Baustein hat, der so ein Neuronenmodell simuliert. Ich habe diesen Baukasten nicht, aber vielleicht kaufe ich ihn mir noch einmal. (Der ist nämlich überhaupt super. Damit kann man z.B. auch ein EEG-Gerät bauen. Aber das gehört hier nicht herein.)
Die Funktionsweise dieses Modells wurde 50 Jahre später in der Praxis anhand eines Tintenfisches erforscht und sozusagen als richtig dargestellt. Die Typen, die sich damit beschäftigt wurden auch belohnt. Sowohl Hodgkin und Huxley als auch Hubel und Wiesel erhielten für ihre Arbeiten den Nobelpreis für Physiologie oder Medizin (1963 und 1981).
Man darf also davon ausgehen, dass die Forschung, die sich mit der Funktionsweise des Gehirns beschäftigt, nichts Esoterisches an sich hat. Allerdings habe ich mir während meiner Studienzeit in den 70erjahren ein Buch über das Gehirn gekauft. Das meiste darin enthaltene, kann heute als überholt oder zumindest so erweitert gesehen werden, dass man mit dem Buch heute nicht sehr weit kommen würde.
Die Arbeiten eines weiteren Forschers, David Marr konzentrierten sich auf die Interaktionen zwischen Neuronen verschiedener Areale wie z. B. dem Hippocampus und der Großhirnrinde. Er legte eine Theorie des Sehens vor, die sich an den Prinzipien der elektronischen Datenverarbeitung im Computer orientiert. Er gilt als einer der Begründer der Neuroinformatik.
Und damit beende ich das heutige erste Kapitel mit einer realen Anwendung, die zeigt, welche Fortschritte die Technik inzwischen gemacht hat. Die visuelle Verarbeitung vom Auge zum Hirn ist ziemlich »intelligent«. In den 80erjahren hatte ich mit dem Thema Bildanalyse zu tun. Damals konnte man einfache bildanalytische Operationen mit Hilfe von Computern durchführen, allerdings dauerte es ziemlich lange. Eine Dilatation, mit der man eine zerfranste Kontur auf zusammenhängend erweitern konnte, brauchte für die Berechnung eines 256*256-Bildpunktebildes in Schwarzweiß 20 Sekunden. Das ist vielleicht einer von zehntausend Schritten, die notwendig sind, damit ein Flaschenpfandrückgabeautomat heute das Etikett einer Bierflasche lesen kann, das Bild auf der runden Etikette geradebiegen und auswerten kann. Das funktioniert heute in einer Zehntelsekunde.
Das bedeutet einerseits, dass ich ein alter Mann geworden bin, der sich allerdings freut, diese ganze Entwicklung mitverfolgen zu können. Andererseits lässt sich daraus ablesen, das einiges, was heute möglich ist, vor 35 Jahren als unmöglich gegolten hat.
Es sollte als durchaus als Anlass dienen, auch andere »unmögliche« Ergebnisse als realisierbar anzunehmen.
Nachtrag: den Baukasten scheint es nicht mehr zu geben. Schade. Vermutlich wird das heute nur mehr über die Simulation durchgeführt.
2. Nachtrag: es scheint ihn doch noch zu geben. Zumindest gibt es noch die Dokumentation über die Versuche.
Versuchsbeschreibung
Tolle Sache, nicht wahr?

die nächsten 37 Jahre

Überraschenderweise wurde ich auf einen Eintrag auf einer schon lange vernachlässigten Blogseite mit dem Titel „Das 37. Jahr“ angesprochen. Mittlerweile müsste es „Das 40. Jahr“ heißen, aber das tut jetzt nichts zur Sache.
Die Frage war: wie wird sich Software und mein Gebiet Test in den nächsten 37 Jahren entwickeln.
In den letzten 37 Jahren habe ich Technologien kommen und auch schon wieder gehen sehen, von denen ich als Kind nicht glauben hätte mögen, dass sie möglich sind. Eigenartigerweise waren das nicht die genauso utopistischen Dinge wie Mobile Phones oder Laptops. Vielmehr las ich kürzlich, dass das Telefax ähnlich wie das Telex in Vergessenheit geraten wird, wenn die digitale Signatur einmal allgemeine Gültigkeit und durchgängigen Gebrauch erfährt.
Die Frage richtete sich aber nach den Inhalten Qualität und Test aus.
Wird es eine Veränderung geben?
Ich sage ja.
Bis heute hält sich eine merkwürdige Konstante in der Software-Entwicklung. Es ist die Anzahl der Gesamtfehler in einem Programm bezogen auf die Große (gemessen in Code-Zeilen) oder auf die ausgelieferte Funktionalität (gemessen in Function Points).
Dies erscheint paradox, weil die Werkzeuge zur Software-Erstellung immer leistungsfähiger und vor allem hilfreicher werden. Ein allfälliger Nutzeffekt konnte aber bisher nicht lukriert werden, weil im gleichen Zeitraum die Komplexität der Programme in astronomischen Maßstäben gestiegen ist.
Jetzt könnte das Spiel endlos lange – ohne Veränderungen der Parameter – weitergehen.
Ich behaupte aber, dass die Komplexität der Programme durch eine Zunahme der Anforderungen steigt. Da denke ich nun, dass wir bald keine neuen Anforderungen mehr erfinden werden können, ohne dass die Anforderungen in Richtung verstärkte Robustheit, bessere Konnektivität und bessere Fehlerbehandlung gehen. Alle diese Merkmale wirken aber auch indirekt auf die Qualität des Codes zurück. Bei weiterhin zunehmender Werkzeugverbesserung und weniger rasant ansteigender Komplexität wird sich insgesamt die Qualität der Software erhöhen. Software Test wird allgemein verstärkt bereits im Anforderungsmanagement eingesetzt werden und die Welt wird schön werden.
Ich bin gespannt, ob ich recht gehabt haben werde.

Aufräumen vor der Reise

Morgen fahre ich aus beruflichen Gründen nach Sofia. Ich hätte auch nein sagen können, doch ich mache es gerne. Ich war noch nie dort und bin von Natur aus neugierig, also passt das mit den zwei Wochen ganz gut.
Ich wollte an sich Reiseabrechnungen machen, weil das Monatsende bereits in Aussicht ist und ich sonst meine Spesen erst einen Monat später bekomme.
Das lasse ich sein, weil ich sicher stellen will, dass mein Computer (Laptop) in Ordnung ist und ich alles repliziert habe, was ich möglicherweise offline brauche. (Also mache ich die morgen vor dem Abflug:)
Dabei sehe ich jetzt den Startbildschirm des Laptops an. Und stelle folgende Inventur an Programmen fest.
Ich stelle fest, dass einige am Startbildschirm sind, die ich nicht verwende.
Jetzt habe ich aufgeräumt. Dabei habe ich festgestellt, dass ich andere Programme schon lange (> 3 Monate) nicht mehr benützt habe. Dabei fühle ich mich unbehaglich. Denn das sind die Programme, bei denen ich produktiv arbeite und etwas Neues erzeuge. Irgendwie schade.
Naja, wenigstens TeXworks kommt bald wieder dran, weil ich zwei Papers vorbereiten sollte:)

Ab heute 9:30

wird zurückgearbeitet.
Bis Weihnachten.
Bin auf den Erfolg gespannt. Da mir das Unterrichten gefällt, habe ich mich bereit erklärt, auch im Dezember zu arbeiten, obwohl ich mir eigentlich Zeitausgleich nehmen müsste.
Jetzt bin ich gespannt, ob ich bis Weihnachten aus absoluten Neulingen eine schlagkräftige Software-Tester-Gruppe zusammen bekomme.
Warum es schwieriger als normal sein könnte:
Sprachprobleme
wenig fachliche Kenntnisse
keine professionellen Testkenntnisse
Der Lehrplan steht schon. Aber die Übungen muss ich noch textlich ausarbeiten. Und selbst muss ich auch noch etwas dazu lernen.
Es wird wirklich spannend.
Aber ehrlich gesagt, man is born to have adventure.

deutsche Sprache

Modell habe ich ja schon einmal hinterfragt.
Ein paar neue Worte zur Übung:
Effizienz
Kontingenz
Konsistenz
Ich hätte gerne Antworten in der Form:
a) Eine (X) ist ein(e) Y, der (die, das) …
b) Eine (X) ist ein(e) Z Y. (Z … Eigenschaftswort, Z … Hauptwort)
Ich habe in der Schule noch gelernt, dass man Definitionen so auf baut. Anscheinend ist das heute nicht mehr der Fall.
Auf die Frage: was ist X? kommt eine Antwort:
„Äh, …. nun, … wenn man nuschel nuschel … oder?“
Ist das wirklich intellektuell angemessen für Menschen, die mehr als der sprichwörtliche Hilfsarbeiter verdienen oder von denen gesagt wird: „Du, du kennst dich doch mit Computern aus!“

http://www.heise.de/newsticker/meldung/10-Jahre-Agiles-Manifest-zur-Geburt-agiler-Softwareentwicklung-1188299.html
10-Jahre bestehen jetzt die Aussagen zu agiler Programmierung. Mittlerweile gibt es ja agiles Programmmanagement, agiles Testen, agiles Masturbieren und agiles Stehenbleiben.
Scherz beiseite. Die Agilität hat schon etwas früher begonnen. Vermutlich mit XP (Extreme Programming) von Kent Beck. Das wurde ziemlich belächelt. Der enge Zusammenschluss von Kunden und Entwicklern erschien damals noch als Utopie.
Darüber wird heute nicht mehr gewitzelt.
Mit Kent Beck habe ich Nächte in Las Vegas verbracht und über sein Testverständnis diskutiert. Er stellte es so dar, dass mit Unit-Tests alles abgedeckt wäre. Die spielen sich noch auf Entwicklerebene ab und sind zweifellos ein „extrem“ guter Beginn., aber nicht die ganze Strecke.
Als das Manifest veröffentlicht wurde, gab es schon 17 verschiedene agile Methoden. Ich selber war ein Verfechter von „Crystal Clear“ und baute einiges davon in den Softwareentwicklungsprozess, für den ich nach der Jahrtausendwende verantwortlich war. Vielleicht rührt auch meine Begeisterung für American Football von einer agilen Methode namens „SCRUM“ (von Ken Schwaber) her. Scrum ist nach einem Spielzug bei Rugby benannt, von dem sich wiederum das American Football ableitet.
Dirk Gentry’s Holistic Agency: everything is interconnected.
Heute ist das alles alter Hut. Und trotzdem erlebe ich es in den Firmen, wie sie vergeblich versuchen, ihre eigenen Programmentwicklungsprozesse zu strukturieren, umzustellen und zu verbessern. Und manchmal bin ich entsetzt, wie wenig eigentlich die Programmierer von den Entwicklungen wissen, die sich in ihrem Umfeld abspielen.

Eingerostet ?

Gestern habe ich eine Präsentation und das zugehörige Abstrakt vorbereitet. Der Vortrag wird nächste Woche stattfinden, danach werde ich berichten, ob es gut gelaufen ist.
Beim Erarbeiten habe ich allerdings feststellen können, dass ich noch nicht ganz vertrottelt bin.
Ein bisschen was geht noch 🙂

internet ist vielleicht krank

Heute habe ich bei mir ziemlich merkwürdige Ausfälle, die zuerst einmal so aussehen, als ob meine Internet-Verbindung ganz langsam ist.
Nach und nach mehren sich aber die Indizien, dass andere Leute die gleichen Probleme haben. Bei twoday geht es jetzt wieder, Facebook war ziemlich matt am Abend. Und da kann ich feststellen, dass es an Facebook gelegen sein musste, weil ja auch die Mails, die direkt vom Server auf das Handy geschickt werden, nicht mehr rechtzeitig kamen.
Gut, dass das nicht gestern der Fall war. Denn da habe ich nur so die Megabyte downgeloaded. Und da ging es vergleichsweise wirklich schnell mit 4Mbit/sec.

Weiß wer Näheres?

Es geht weiter

Heute nach dem ersten Tag bin ich rechtschaffen müde. Die Teilnehmer starten nicht bei Null, zumindest 6 von den 8 tun das nicht. Inzwischen hat sich der Zeitplan auf den Jänner ausgeweitet und ich habe noch zwei Dienstreisen gewonnen.
Je eine Woche Sofia im November und im Dezember. Eine Woche Belgrad war eh eingeplant.
Und eben habe ich erfahren, dass ich möglicherweise ein Testseminar an einer Uni in Belgrad abhalten soll. (ein bezahltes)

Man könnte sagen: momentan läuft es gut. Tut es ja eigentlich eh fast immer. Aber heute bekam ich quasi die Bestätigung, dass die Arbeit der vergangenen Monate wirklich für sehr gut befunden wurde. Da kann man noch so eingebildet sein: wenn das Lob von außen kommt, zählt es doch mehr 😉

Ich bin eigentlich zu alt …

Ich bin zu alt
Ist mir alles zu kompliziert. Nicht wirklich. Aber irgendwie schon.
Es gibt ja einige Menschen, die behaupten, dass sie sich mit dem Computer nicht auskennen. Nun, eigentlich kann ich das nicht sagen. Aber manchmal hilft auch das ganze Auskennen nichts. Ich stelle fest, dass ich wüsste, was schuld ist, wenn etwas nicht geht, aber ich kann es nicht an Ort und Stelle beheben, weil …
Und für die, die es interessiert:
Ich arbeite an einem Projekt. Die Kunden sind ein Bilder gewöhnt, die von einem Programm kommen, das ich nicht habe. Das Programm kann man auch als Open Source für den privaten Gebrauch herunter laden.
Die Installation davon dauert auch auf einem schnellen Rechner einige Minuten. Das Programm verwendet eine Datenbank.
Beim Starten des Programmes X stellt sich heraus, dass die Datenbank nicht installiert wurde.
D.h. das Datenbankprogramm wurde schon installiert, aber es wurde nicht „die Datenbank“ für das bewusste Programm installiert.
Einige Zeit suche ich. Die Datenbank läuft auf meiner Version des Betriebssystem – angeblich. Allerdings kann es sein, dass das Installationsprogramm, das von der Firma, die das X zusammen mit der Datenbank installiert, nicht auf meinem Rechner ordentlich läuft. Vermutlich läuft es mit XP oder Windows 7.
Jetzt bin ich ja ein sogenannter „Power User“. So einer lässt sich davon nicht abschrecken. Ich habe ja Windows 7 auf einer virtuellen Maschine, die auf meiner Windows 8 Plattform läuft. Also wird die virtuelle Maschine angeworfen.
Ich bekomme aber die Installationsdateien nicht auf die virtuelle Maschine. Copy und Paste scheint hier eine Größenbeschränkung zu kennen, die es sonst nicht hat.
Ich versuche noch die Laufwerke zu „sharen“, aber es ist 4 Uhr früh. Ich gehe schlafen. Am nächsten Morgen rufe ich meinen Kollegen an, um ihn über die Größenbeschränkung von copy&paste zu befragen. Die ist ihm nicht bekannt, aber er empfielt mir den Umweg über eine USB-Stick.
Ich sitze inzwischen beim Kunden. Die Lösung mit dem USB-Stick funktioniert. Die Installation auch. Plötzlich gibt es die richtige Datenbank, die vom Programm X adressiert werden kann.
Jetzt gibt es ein anderes Problem. Das Programm und/oder die virtuelle Maschine versucht, an die Laufwerke meines Laptops heranzukommen und schlägt mir einen Benutzer vor, den es auf der Maschine nicht gibt.
Interessanterweise funktioniert Programm X und ich bin fast zufrieden, bis ich feststelle, dass mein virtuelles Windows 7 noch eine Aktivierung braucht. Die virtuelle Maschine habe ich nämlich von meinem alten Rechner übertragen und daher gilt die ursprüngliche Aktivierung nicht mehr. Aktivierung über Internet ist im Prinzip keine Angelegenheit. Ich muss nur meinen Proxy aufmachen und die virtuelle Maschine auch über den Host (das ist mein Laptop) an die Außenwelt (das ist das Internet) verbinden. Die Aktivierung funktioniert nicht.
Naja, ist klar. Ich habe ja noch das Proxy-programm dazwischen und dann gibt es noch den Proxy des Kunden, über dessen Local Area Network ich angebunden bin.
Ein Kollege klärt mich auf, dass die Aktivierung sowieso nicht über einen Proxy geht sondern direkt über Ansprache der Netzwerkkarte, also im Prinzip 2 Stufen tiefer im TCI/IP-Stack. Und da hat der Proxy des Kunden etwas dagegen.
Zuhause habe ich die Aktivierung noch einmal probiert. Alles lief wie am Schnürchen. Soweit bin ich glücklich.
Aber ehrlich: – und ich bin da nicht fishing for compliments – ist das nicht alles ein bisschen kompliziert.
Da muss man der NSA ja doch ein großes Lob aussprechen. Solche Hindernisse sind für die nur peanuts.
Und dann denke ich mir, dass es schon ein Wahnsinn ist, was da alles funktioniert. Und irgendwie bleibt der Wunsch, so lange wie möglich noch alles verstehen zu können, was da mit den Computern so abläuft.




  • Neueste Beiträge

  • Tage mit Einträgen

    Januar 2026
    M D M D F S S
     1234
    567891011
    12131415161718
    19202122232425
    262728293031  
  • Was einmal war