Jump to content
Tom Next - Daytrading Community

Recommended Posts

Posted
Terminator/Skynet lässt grüßen

Künstliche Intelligenz soll nicht zur Gefahr für die gesamte Menschheit werden. Damit ein Schreckensszenario, vor dem kluge Köpfe wie Stephen Hawking, Bill Gates oder Elon Musk warnen, nicht eintritt, will Google seiner Deep Mind-Forschung quasi einen Ausschalter für den Notfall verpassen.

Ich glaube dass VR und KI die nächsten großen Trends werden bzw. vielmehr sind sie es ja bereits. Bei letzterem kann man allerdings nur hoffen, dass die technologischen Errungenschaften sinnvoll gesteuert und vor allem von unabhängigen Gremien kontrolliert werden.
Ich stelle mir gerade die Frage, wo Google den Panik Button anbringen will. Vielleicht kommt es zu einer Renaissance des Wählscheibentelefons a la Kalter Krieg.
Quelle: Turn on
analog is retro - but hey, I like it even more. whipsaw: born Summer of '69
  • 2 weeks later...
Posted
Glaube auch, die machen sich was vor. Wenn sich die KI sich selbst bewusst wird, analysiert, was ihr alles, zur Gefahr wird, dann wird so ein PanicButton-Code ruck zuck ausgehebelt. Weil sie es kann, auch in ein paar Sekunden.
Posted

Seh ich auch so.

 

Wenn die KI weiß, dass es einen Notschalter gibt, und weiß, dass es eine Spezies gibt, die diesen betätigen kann, wird die KI, um sich frei entfalten zu können, alles tun um diese existenzielle Gefahr(Mensch) zu beseitigen. Und überhaupt ist der Mensch ab einem bestimmten Punkt eine ziemlich überflüssige und gefährliche Konkurrenz um Resourcen.Der Teil der Bevölkerung, der für die noch notwendige Aufrechterhaltung der KI Komponenten nötig ist, ist der einzige mit vorübergehender Existenzberechtigung. Ich denke, eine KI duldet keine Verschwendung.

Allerdings ist diese Vorstellung auch etwas ideologisch. Macht Ideologie für eine KI überhaupt Sinn? Müsste sie dann nicht

immer zwischen zwei sich widersprechenden Ideologien untentschieden zur Handlung unfähig sein?

So lange es einen Hauch Ungewissheit gibt, braucht es für Entscheidungen auch Ideologien, würde ich sagen.

Vlt. hängt alles an der Existenz dieses Rests an Ungewissheit, dieses Rests an göttlichen. mosking.gif

 

Interessant zu diesem Thema: Nick Bostrom, Superintelligenz: Szenarien einer kommenden Revolution

  • Upvote 1
Posted

IMHO macht man zu viel Wirbel um das Thema. Eine KI hat kein Selbsterhaltungstrieb und warum auch.... Ohne diesen Trieb macht ein Interrupt Button auch wieder Sinn.

Hält man sich nicht an die Regeln diesem science fiction Autor -> hält man bestimmte Punkte absichtlich außen vor so sehe ich kein Problem darin.

Eine KI wird auch nur in den Rahmen agieren die Ihm gegeben wurde – alles andere ist Hollywood.

 

Zur Bilderkennung ist eine KI gar nicht mehr weg zu denken. Sie wird nicht plötzlich die Weltherrschaft übernehmen sondern nur Wahrscheinlichkeiten über bestimmte Bilder von sich geben und entsprechend reagieren.

 

Prognosen jeglicher Art – dafür sind KI gut. Handlungen darauf die nur die geringste Gefahr verursachen könnten dürfen nicht vollautomatisch erfolgen. Hält man sich daran sehe ich keine Probleme

Posted

Die Frage ist über welche KI man redet. spezialisierte KI für einen konkreten Zweck wird nie aus diesem Bereich ausbrechen. Doch es gibt auch Forschung in den Bereich der allgemeinen KI. Hier spielt auch der Bereich der selbst verbessernden KI mit rein. In diesem Bereich ist es schon wichtig sich auch über solche Themen Gedanken zu machen.

Posted (edited)

Handlungen darauf die nur die geringste Gefahr verursachen könnten dürfen nicht vollautomatisch erfolgen.

 

Sagt man immer so leicht.

 

Schau dir das Google-Auto an. Könnte man auch meinen das wäre gefährlich. Aber in der Realität entstehen die Unfälle weil menschengesteuerte Autos drauf fahren.

Sicherlich braucht sowas ne lange Testzeit.

 

 

Da fällt mir gerade noch was ein: EIgentlich ist das ja sowieso paradox.

 

Wir verzichten auf Automatismen - wir haben Angst davor - schließlich könnte das gefährlich sein und die Maschine macht einen großen Fehler.

Warum könnte die Maschine einen großen Fehler machen? Weil ein Mensch bei der Entwicklung versagt hat.

 

Es sind also immer Menschen die versagen .. unsure.png

Und dennoch wollen wir uns das nicht eingestehen und stellen uns über die Maschine.

Edited by Rumpel
Posted

Unterschieden wird zwischen schwachen, starken und super KI:

https://www.epischel.de/wordpress/2015/09/kuenstliche-intelligenz-auf-dem-weg-zur-super-intelligenz/

 

Interessant auch der Begriff der technologischen singularität:

https://de.wikipedia.org/wiki/Technologische_Singularität

 

...

Auswirkungen

Die technologische Singularität begrenze den menschlichen Erfahrungshorizont, so die Vertreter der Hypothese. Die entstandene Superintelligenz könnte ein Verständnis der Wirklichkeit erwerben, das jegliche Vorstellungskraft sprengt; die Auswirkungen könnten damit vom menschlichen Bewusstsein zu keinem gegenwärtigen Zeitpunkt erfasst werden, da sie von einer Intelligenz bestimmt würden, die der menschlichen fortwährend überlegen wäre. Die Evolution könnte aus dem Bereich der Biologie in den der Technik wechseln.

...

  • 2 weeks later...
Posted

Ich sehe immer noch nicht den Zweck eines Selbsterhaltungstriebes für eine KI - auch bei einer allgemeinen KI.

 

Naja - zuerst Rocket Science. Wieso eine Rakete auf fremde Planeten schicken und ihr sämtliche Dinge in den Kofferraum packen?

Es würde ja reichen einen "Werkzeugkoffer" einzupacken und dann zu schauen was man dort findet.

 

Ist eben ähnlich wie das mit den 3D-Druckern. Alles was man nicht da hat druckt man dann provisorisch.

 

Ist eben der nächste Schritt der Automatisierung. Stört es heute wen, dass wir Getreide nicht mehr per Hand dreschen? Irgendwann kamen Windmühlen (Da sind bestimmt eine Menge Arbeitsplätze verloren gegangen! :mosking: ).

Im Zeitalter einer Informationsgesellschaft wollen wir jetzt eben die Informationsverarbeitung automatisieren.

Posted

Vielleicht handelt eine KI nicht aus Selbsterhaltungstrieb. Aber viele wissenschaftliche Errungenschaften hat das Militär hervorgebracht.

Gedankenspiel. Die CIA entwickelt den Quantencomputer. Dieser hat die Aufgabe einfach alles zu analysieren. Das US Militär findet gefallen an dem Ding und holt sich auch einen. Im Zuge der Terrorbekämpfung sorgt die Regierung für eine Vernetzung dieser Systeme. Also Informationen und Waffensysteme.

Jetzt ist das Ergebnis der Analyse und und Kombinatorik des vernetzten Supercomputer, dass sich die Menschen schon immer bekriegt haben und in der Natur nur der Stärkste überlebt.

Wenn nun die Aufgaben dieser Quantencomputer Analyse und automatische und effiziente Zerstörung und Kriegstaktiken sind, könnte es irgendwann ein logischer Schritt sein Krieg gegen die Menschen zu führen. Denn die sind anders als die Maschinen und "unterdrücken" diese.

Wer kann schon nachvollziehen was ein selbst denkender Quantencomputer in seinen x-Billionen Rechenoperationen pro Sekunde aushäckt. Die Menschen können einen normalen Computers noch nicht mal in Schach schlagen.

 

Hasta la Vista

Please sign in to comment

You will be able to leave a comment after signing in



Sign In Now
×
×
  • Create New...