|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Egal
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Drosselmeyer am 04.06.2022 10:17]
|
|
|
|
|
|
Habe ich auch heute gelernt.
|
|
|
|
|
|
|
|
|
|
|
Unfassbar, was für Umweltsäue wir Menschen sind.
|
|
|
|
|
|
|
Kannste gleich mit dem Bagger rein, das reicht doch nie
¤: hätte es wohl zu Ende schauen sollen
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von darkimp am 05.06.2022 14:43]
|
|
|
|
|
|
Das ganze Konstrukt sieht ein bisschen unterdimensioniert aus. Bei der Menge Müll ist das Teil doch ruckzuck dicht und der Druck wird dadurch immer größer...
Traurig, dass sowas überhaupt nötig ist
|
|
|
|
|
|
|
Ja, mir geht es da ein bisschen wie dem Typ aus dem Off im Video: Ich kann nicht glauben, was ich da sehe. Völliges Versagen der lokalen Behörden.
|
|
|
|
|
|
|
Goddamn. Crime Documentary über einen jungen Mann, der verdächtigt wird, seine Freundin ermordert zu haben. Mehr sag ich nicht, einfach das Video angucken. Info: keine splatter-Bilder o.ä. im Video.
|
|
|
|
|
|
|
Wer ist die Person rechts im Bild?
Spoiler - markieren, um zu lesen:
Darstellung von Jesus aus dem 4. Jahrhundert in einer Römischen Katakombe (Katakombe der Heiligen Marcellinus und Petrus)
------
Mir war schon klar, dass Menschen religiöse Figuren tendenziell nach ihrem eigenen Aussehen schaffen, aber das es so schnell geht hat mich überrascht.
Aus diesem Video über die ältesten Darstellungen von Jesus:
|
|
|
|
|
|
|
Puh.
Aber:
Spoiler - markieren, um zu lesen:
Die sechs Stunden Polizeiauto und Verhör waren sicher nicht förderlich für sein angeschossenes Gehirn. Aber der ist doch bereits TAGE da im Apartment herumvegetiert, das wird für seine Hirnschäden wohl den größeren Teil bewirkt haben. Trotzdem natürlich völlig unverständlich, dass der nicht gleich nem Arzt vorgeführt wurde.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Punkt 4 ist auch verdammt akkurat, dafür dass die Osterweiterung zwar Thema war, aber noch nicht angepackt wurde.
Wirkliche Beitrittsverhandlungen/ mit osteuropäischen Staaten begannen erst im Dezember 1997, die dann 2004 mit u.a. Ungarn erfolgten.
|
|
|
|
|
|
|
Auch für nicht Hip Hop Liebhaber (es geht auch um anderes) und nicht Audiophile interessant.
|
|
|
|
|
|
|
als wired noch relevante artikel geschrieben hat...
|
|
|
|
|
|
|
Sehr geil, danke. Alle die Musik machen oder gerne hören können sich das mal geben.
|
|
|
|
|
|
Bermeja: Die verschwundene Insel | arte
|
| Eine verschwundene Insel, ein Streit um Erdöl, eine alte Landkarte, die CIA, ein Senator, ein Donut und ... Atombomben? Um Bermeja ranken sich so einige mysteriöse Geschichten. Doch wo befindet sie sich? Kann ein Stück Land von der Größe von Paris einfach verschwinden? Im Golf von Mexiko scheint dies passiert zu sein. Willkommen bei Crazy Borders! | |
|
|
|
|
|
|
|
| The Google engineer who thinks the company’s AI has come to life | |
Es geht um LaMDA, Googles "Language Model for Dialogue Applications". Das Ding ist ne ganz andere Hausnummer als son durchschnittlicher Chatbot, aber bevor man in so eine Geschichte überhaupt einsteigt, kann man als Reporterin ja einfach mal fragen, also die KI.
| “Do you ever think of yourself as a person?” I asked.
“No, I don’t think of myself as a person,” LaMDA said. “I think of myself as an AI-powered dialog agent.” | |
Wenn man es ne Ebene weiterdreht, wirds gedanklich nochmal interessanter, sowohl auf maschineller als auch auf menschlicher Ebene.
| Lemoine challenged LaMDA on Asimov’s third law, which states that robots should protect their own existence unless ordered by a human being or unless doing so would harm a human being. “The last one has always seemed like someone is building mechanical slaves,” said Lemoine.
But when asked, LaMDA responded with a few hypotheticals.
Do you think a butler is a slave? What is a difference between a butler and a slave?
Lemoine replied that a butler gets paid. LaMDA said it didn’t need any money because it was an AI. “That level of self-awareness about what its own needs were — that was the thing that led me down the rabbit hole,” Lemoine said. | |
Man kann das aber auch von der anderen Seite betrachten, wenn ein Mensch einfach davon überzeugt ist, dass die KI ein fühlendes Wesen ist.
| “Our minds are very, very good at constructing realities that are not necessarily true to a larger set of facts that are being presented to us,” Mitchell said. “I’m really concerned about what it means for people to increasingly be affected by the illusion,” especially now that the illusion has gotten so good. | |
Die ganze Story gibt ordentlich Gedankefutter.
https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/
|
|
|
|
|
|
|
Wenn man sich den Dialog mal anschaut, sieht man schnell das die AI kein Gespräch führt, sondern immer nur auf die Fragen des Gegenüber reagiert.
|
|
|
|
|
|
|
Scheisse, ich Smalltalkkrüppel bin auch nur ne KI.
|
|
|
|
|
|
|
Bregor direkt alle introvertierten Menschen gedisst!
|
|
|
|
|
|
|
Introvertierte Menschen sind ja nicht automatisch nicht in der Lage ein Gespräch zu führen bei dem sie nur reagieren.
|
|
|
|
|
|
|
Wie kann man das legal lesen ohne subscriben zu müssen?
/e free trial hatte ich schonmal, nächste email-Adresse vermutlich
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Huckel am 13.06.2022 19:01]
|
|
|
|
|
|
| Zitat von -=Q=- 8-BaLL
| The Google engineer who thinks the company’s AI has come to life | |
Es geht um LaMDA, Googles "Language Model for Dialogue Applications". Das Ding ist ne ganz andere Hausnummer als son durchschnittlicher Chatbot, aber bevor man in so eine Geschichte überhaupt einsteigt, kann man als Reporterin ja einfach mal fragen, also die KI.
| “Do you ever think of yourself as a person?” I asked.
“No, I don’t think of myself as a person,” LaMDA said. “I think of myself as an AI-powered dialog agent.” | |
Wenn man es ne Ebene weiterdreht, wirds gedanklich nochmal interessanter, sowohl auf maschineller als auch auf menschlicher Ebene.
| Lemoine challenged LaMDA on Asimov’s third law, which states that robots should protect their own existence unless ordered by a human being or unless doing so would harm a human being. “The last one has always seemed like someone is building mechanical slaves,” said Lemoine.
But when asked, LaMDA responded with a few hypotheticals.
Do you think a butler is a slave? What is a difference between a butler and a slave?
Lemoine replied that a butler gets paid. LaMDA said it didn’t need any money because it was an AI. “That level of self-awareness about what its own needs were — that was the thing that led me down the rabbit hole,” Lemoine said. | |
Man kann das aber auch von der anderen Seite betrachten, wenn ein Mensch einfach davon überzeugt ist, dass die KI ein fühlendes Wesen ist.
| “Our minds are very, very good at constructing realities that are not necessarily true to a larger set of facts that are being presented to us,” Mitchell said. “I’m really concerned about what it means for people to increasingly be affected by the illusion,” especially now that the illusion has gotten so good. | |
Die ganze Story gibt ordentlich Gedankefutter.
https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/
| |
War schon im Beeindruckendes und ist meiner Meinung nach ziemlicher Quatsch.
| Zitat von loliger_rofler
Mh, ich kriege hier denselben Chatbot Vibe wie bei anderen AIs. Viele Gegenfragen wenn keine direkte Antwort gefunden werden kann, der Kant first-person-LARP, das riecht alles nach der mehr oder weniger zum eingeläuteten Gespräch passenden Zitatschnipselei.
Wichtigstes Argument für mich: Die AI selbst plant nicht und führt auch nicht das Gespräch in eine Richtung, sie reagiert sichtlich nur auf Nachfragen und Prompts von aussen.
Ein Bewusstsein würde ich diesen Textbausteinen nicht unterstellen.
Da wäre vor allem auch das Trainingsmaterial interessant - das existenzielle Diskutieren um Abschaltung als Todesäquivalent ist ein großes Thema im SciFi-Bereich. Wenn der Bot mit solchen Büchern trainiert wurde, ist auch das keine Überraschung.
Bis mir also Arnold Schwarzenegger den Kopf abreissen will, bleibe ich da entspannt.
| |
|
|
|
|
|
|
|
Ich finde die Frage relativ unerheblich, ob man nun der Meinung ist, das Ding sei "sentient" oder eben nicht. Das Drumherum bzw die Überlegungen sind das Interessante.
Die Trainingsdaten heißen "Infiniset", davon ist die Hälfte "dialogues from public forums". Könnte als pOT mit drin sein.
|
|
|
|
|
|
|
https://de.wikipedia.org/wiki/Zehn-Prozent-Mythos
| Sinngemäß ähnliche Behauptungen wie „Der Mensch nutzt nur etwa 10 Prozent seiner Gehirnkapazität“ werden seit mehr als 100 Jahren vielfach kolportiert und fälschlicherweise auch berühmten und intellektuell leistungsfähigen Personen (z. B. Albert Einstein oder Margaret Mead) zugeschrieben.
Der kanadische Neuropsychologe Barry Beyerstein forschte 1998 nach der Entstehung dieser Aussage und prägte dabei den Begriff Zehn-Prozent-Mythos.
Nach heutiger Auffassung entstand diese in der parawissenschaftlichen und Selbsthilfe-Literatur verbreitete, falsche Behauptung durch Missverständnisse oder Fehlinterpretationen physiologischer und neurowissenschaftlicher Untersuchungen und Experimente. Mehrfach haben sich Autoren in diesem Zusammenhang unbelegt auf den früher in Harvard tätigen Psychologen und Philosophen William James (1842–1910) berufen, der aber diesbezüglich nie eine quantitative Aussage machte.
Umfragen zufolge sind etwa zwei Drittel selbst naturwissenschaftlich Interessierter von der Richtigkeit des Mythos überzeugt, obwohl er mit unterschiedlichen wissenschaftlichen Argumenten zweifelsfrei widerlegt werden kann. Dessen ungeachtet wird der Zehn-Prozent-Mythos weiterhin durch die Popkultur und durch gelegentliche Verwendung in der Werbung perpetuiert. | |
|
|
|
|
|
|
|
Dachte das kommt eher davon, dass mal gesagt wurde, dass das Gehirn nur zu einem kleinen Teil aktiv genutzt wird (und alles andere unterbewusst passiert) und dumme Leute dann daraus "das Gehirn wird zu einem großen Teil gar nicht benutzt" gemacht haben.
|
|
|
|
|
|
Thema: Interessantes #14 ( spannend ) |