In Stunden statt Monaten: Google-KI entwirft Chip für die nächste KI

oder

Zugangsdaten vergessen?

Jetzt kostenlos Registrieren!
[o1] karlo73 am 10.06. 19:58
+20 -
Maschinen bauen Maschinen bauen Maschinen... und heraus kommt dann irgendwann ein T-800...
Na danke!
;-)
[re:1] LoD14 am 10.06. 21:14
+7 -
@karlo73: Um die Rekursion zu verstehen, muss man zunächst die Rekursion verstehen.
[re:2] Andrew3210 am 10.06. 21:55
+6 -2
@karlo73: zum Schluss versteht ein Mensch nichtmal mehr was die KI da gebaut hat. Leider wird die Masse den Chip trotzdem verwenden ohne Ahnung, was der eigentlich macht.
[re:1] Kirill am 11.06. 09:45
+5 -1
@Andrew3210: Das tun Menschen auch mit von Menschen gebauter Technik,.
[re:2] DRMfan^^ am 12.06. 01:16
+2 -
@Andrew3210: Das ist genau das, was bei den meisten KIs heute passiert. Man probiert mit Parametern und Eingabedatensätzen rum, bis das Ergebnis ("die KI") gute Ergebnisse (z.B. Klassifizierungen) erzielt. Warum es das tut ist meistens unklar und durch die große verarbeitete Datenmenge für Menschen auch schwer nachvollziehbar. Es gibt Ansätze im Bereich "Verifiable Artificial Intelligence", soweit ich weiß sind berücksichtigen dir Großen Erfolgsmeldungen wie diese hier das Konzept aber nicht.
[re:1] Andrew3210 am 12.06. 03:59
+1 -
@DRMfan^^: das ist wirklich ein interessantes Thema. Wenn eine KI einen neuen Chip designt, mit einer neuen KI, die wieder einen neuen Chip designt, sind wir bald an dem Punkt, an dem die KI beginnt, das Universum zu erforschen. Eventuell wird dann der Mensch wirklich bald überflüssig. Wahrscheinlich brauchts nichtmal einen T-800 um die Menschheit zu vernichten. Wir werden einfach im Hintergrund verblassen?
[re:3] neorayzor am 10.06. 22:44
+2 -
@karlo73: Habe auch direkt an CyberDyne denken müssen ;)
[o2] JimB am 11.06. 06:11
+2 -
SkyNet lässt grüssen :-)
[o3] Mitsch79 am 11.06. 06:57
+9 -
Allerdings hat die KI keinen neuen Chip entworfen, im Sinne von Befehlssatz, Funktionen und Leistung, sondern nur eine bestmögliche "Verkabelung" der vorgegeben Komponenten des Chips. ;)

Skynet ist also noch weeeeit weg.
[re:1] Fanta4all am 11.06. 08:19
+ -2
@Mitsch79: Sooo weit ist es garnicht weg. Man bedenke, dass das nur eine KI war. Wir setzen mittlerweile sehr viele unterschiedliche KIs ein. Würde man alle KIs die es derzeit gibt zusammen setzen, wäre Syknet schon da.

KI Chipdesign
KI Autonomes fahren
KI Wettervorhersage :)
KI Schach (Strategie)
KI ...
[re:1] DRMfan^^ am 12.06. 01:13
+1 -
@Fanta4all: Wenn Skynet so gut trifft wie die Wettervorhersage, dann habe ich keine Angst vor dem T-800 :D
[re:2] Nunk-Junge am 11.06. 09:10
+3 -
@Mitsch79: Stimmt vollkommen. Aber die Nachricht liest sich doch so schön gruselig... In der Realität werden Chips schon ewig nicht mehr komplett vom Menschen entwickelt. Wer das glaubt, der soll mal eben ein Millionen-seitiges Buch schreiben. Beim Chip-Entwurf kommen schon lange entsprechende Tools zum Einsatz. So wie sich der Artikel liest, hat Google nur diesen Prozess durch KI schneller machen können. Schön, aber keine Revolution.
[o4] F98 am 11.06. 08:31
+ -
Hätte man das Ganze nucht einfach mit einem genetischen Algo machen können?
[re:1] DRMfan^^ am 12.06. 01:28
+ -
@F98: Du kannst es auch durch Brute-Force machen und alle Möglichkeiten durchgehen. Die Frage ist, wie effizient ist das. Genetische Algos sind erstmal auch nur ein Rahmenwerk wie Deep Learning auch. Du rekombinierst (paarst), veränderst (mutierst) und bewertest (Fitness-funktion) auf bestimmten Arten mit bestimmten Parametern (z.B. Wahrscheinlichkeiten) und hoffst, dass du den richtigen Riecher für die Parameter hast. In beiden Fällen verstehst du das Problem hinterher nicht, hoffst aber, es halbwegs gut zu lösen. Ob das Verfahren grundsätzlich geeignet ist kann eigentlich nur ein Existenzbeweis beantworten, weil zum Wiederlegen müsstest du alle möglichen Parameter (Achtung, nicht mit alle gültigen Lösungen im ersten Satz verwechseln) durchprobieren. Da z.B. unendlich viele Fitness-Funktionen denkbar sind ist das aber unmöglich. Wie bei Deep leaning hast du dann aber nur eine Aussage über die Testdaten - bei anderen Testdaten kann dir derselbe Algorithmus theoretisch wieder versagen. (Etwa als Trivial-Besipiel: Es werden nur schwarze und braune Pferde erkannt, weil keine Schimmel in den Lern- (und Test-)daten waren)
[o5] Laggy am 11.06. 13:57
+2 -
Man kanns auch weniger spektakulär formulieren. "Google nutzt Machine Learning um Chipdesign zu optimieren."

Keine Angst, die technologische Singularität ist noch nicht da. Erstmal ist das keine denkende KI, sondern ein Algorithmus, der nur eine Sache optimieren kann und zweitens müsste eine KI nicht nur einen besseren Chip entwerfen, sondern auch eine bessere KI, als sie selbst, die auf diesem Chip läuft. Ersteres wäre nix besonderes. Erst zweiteres würde dann in Kombination nen technologischen Knall auslösen.
[o6] Montag am 11.06. 21:11
+1 -
KI sollte in die Politik.
Effektive und schellere beschlüsse, nicht bestechbar, braucht kein Urlaub und arbeitet immer, maximaler Bruttosozialprodukt, und das beste zum Volk.
Man braucht keine Politiker mehr, und auch keine wahlen wenn man weist das sobald ein Mensch regieren würde es nur noch schlechter werden kann.
[o7] DRMfan^^ am 12.06. 01:12
+ -
Kann man Moore's "Gesetz" überhaupt auf TPUs anwenden? Soweit ich das verstehe geht es hier nicht um eine größere Dichte von Transistoren bzw, Schaltkreisen, sondern um effiziente Designs zur Nutzung dieser. Will sagen: Die Leistung mag sich steigern, die Zahl der Transistoren/Schaltkreise, um die es Moore ging, wird dadurch aber nach meinem Verständnis nicht erhöht?!
Desktop-Version anzeigen
Hoch © 2021 WinFuture Impressum Datenschutz Cookies