AI

PokerMillionär

Platin Status
Registriert
20. Januar 2021
Beiträge
5.799
Gibt glaub noch keinen thread zu AI.
Altman ist nun doch wieder bei OpenAI und Sutskever hat sich bei ihm entschuldigt. Finde Musk hat schon recht, erst sacked Sutskever Altman weil er es gefährlich findet wie Altman OpenAI entwickelt und dann bricht die Firma fast zusammen und er wird zurück geholt. Was war denn so gefährlich?

To view this content we will need your consent to set third party cookies.
For more detailed information, see our cookies page.
 
Das war eines der lustigsten Wochenenden in der Geschichte der Tech Industrie glaube ich
 
https://www.reuters.com/technology/...etter-board-about-ai-breakthrough-2023-11-22/

Ahead of OpenAI CEO Sam Altman’s four days in exile, several staff researchers wrote a letter to the board of directors warning of a powerful artificial intelligence discovery that they said could threaten humanity, two people familiar with the matter told Reuters.

The previously unreported letter and AI algorithm were key developments before the board's ouster of Altman, the poster child of generative AI, the two sources said. Prior to his triumphant return late Tuesday, more than 700 employees had threatened to quit and join backer Microsoft (MSFT.O) in solidarity with their fired leader.

The sources cited the letter as one factor among a longer list of grievances by the board leading to Altman's firing, among which were concerns over commercializing advances before understanding the consequences. Reuters was unable to review a copy of the letter. The staff who wrote the letter did not respond to requests for comment.

After being contacted by Reuters, OpenAI, which declined to comment, acknowledged in an internal message to staffers a project called Q* and a letter to the board before the weekend's events, one of the people said. An OpenAI spokesperson said that the message, sent by long-time executive Mira Murati, alerted staff to certain media stories without commenting on their accuracy.

Wirkt mir aber alles zu schwammig und klingt wie so ne halbgare Marketing Story. Wobei ich Altman absolut zutraue dass er rücksichtslos alles kommerzialisiert was geht.
 
Ist bei dem Thema sehr schwer zu unterscheiden, was echte, begründbare Sorgen sind, was was totale Selbstüberschätzung des eigenen Einflußes und der derzeitigen Methoden ist und was einfach nur gestreut wird, um sich selbst oder das eigene Unternehmen zu promoten.
 
boah weiß nicht. grundsätzlich ja, viel blabla, viel dumme presse gerade, viel interesse an gossip und hollywood storys.., aber openai war ja schon sehr restriktiv bis anfang des jahres. zumindest wie ich das aus "nutzersicht" beurteilen kann. gpt-2 war damals schon sehr cool und war lange zeit der gold-standard für generative language models. das ding hatte ja schon 1,5 milliarden paramter (und war damit schon 5 mal so groß wie bert large), bot schn ein paar möglichkeiten und sie haben das komplett free zur verfügung gestellt. aber die ganze generative ai sparte war eher ein nette spielerei und nicht wirklich sinnvoll breit produktiv einsetzbar.
eigentlich hat man sich in der zeit (2017 - geburt der "neuen architekturen" bis 2022) noch sehr stark auf klassifikation, q&a, regression etc. konzentriert (z.b.: liebes modell hier hast du 10000 klassenarbeitsbewertungen von @Svansen , lern mal die beziehung zwischen text des schülers und benotung). gpt-3 gab es dann ja schon seit mitte 2020 und wurde nie public gemacht, weil openai meinte, dass man damit zu viel quatsch machen kann. es gab dann große open source projekte, das ding nachzubauen, aber die kamen einfach nicht an die performance ran (z.b. https://huggingface.co/EleutherAI/gpt-j-6b)

boom und dann kam chatgpt + der open source llm hype (zuletzt extrem beeindruckend, z.b. https://huggingface.co/docs/transformers/main/model_doc/mistral). viel research, viel optimizing, du kannst so ein llama 7b jetzt auf ner rtx3090 (also ner 600-800 euro grafikkarte) zuhause finetunen. das ist schon verrückt. wenn du dich hinsetzt mit ein bisschen zeit, trainierst du jetzt ohne großes ai knowhow ein llm und produzierst die tollsten und authentischsten fishing mails ever. oder du nutzt einfach die spottbillige openai api. der ganze scheiß richtung fake videos, fake voices ist ja auch da. das kann echt jeder halbwegs versierte developer umsetzen. ich weiß gar nicht, wie man in zukunft noch irgendeinem video ohne wasserzeichen oder sonst trauen soll. vllt. wird hier nochmal die blockchain produktiv interessant :d

jetzt kann man natürlich sagen, ja gut, das wäre so oder so gekommen, ohne chatgpt hätte es vllt. 5 jahre länger gedauert. mag alles stimmen und einfangen kann man es sicher auch nicht, aber es ist ja okay, dass einzelne in großen organisationen trotzdem die frage nach veranwortlichkeiten stellen. also klar, du hast jetzt keinen globalen hebel, aber man kann ja trotzdem diskurse mitsteuern und bestimmen. es ist auf jeden fall verrückt, wie viel scheiße man jetzt mit relativ wenig finanziellen mitteln und relativ wenig know-how anstellen kann. mir persönlich macht das schon ein wenig sorgen.


vllt. hab ich dich auch falsch verstanden. bzgl. der altman story alles sehr diffus, aber es ist schon teil der wahrheit, dass man zumindest in der vergangenheit über verantwortung nachgedacht hat. man hätte das alles auch schon vor 2 jahren lostreten können. wer jetzt wie was warum, ist ja auch irgendwo auch egal..
 
Bin da ganz bei Dir, ich finde diese AI Goldgräber Mentalität auch bedenklich. Aber wie du sagst, die Büchse der Pandora ist offen und ich sehe keinen Grund, wieso ein "bad actor" nicht eine KI ohne Fesseln bereitstellen könnte/sollte um damit noch viel mehr Schaden anzurichten als man es mit den Restriktionen bei GPT und Co. derzeit kann. Und das ist schon gruselig. Und man hat eben den Eindruck als würden hier zunächst Innovationen auf die Welt losgelassen ohne all zu lange über die Konsequenzen nachzudenken, was ich angesichts der sich abzeichnenden Entwicklung ebenfalls sehr bedenklich finde.

Die Blockchain Idee wurde in dem Stephenson Roman, den ich schon mal hier irgendwo zitiert habe, ebenfalls erwähnt, aus genau dem Grund den du nennst (Unmöglichkeit, Autorenschaft bzw. Authentizität festzustellen im Zeitalter von Filtering, Bubbles, GenAI etc.).
 
To view this content we will need your consent to set third party cookies.
For more detailed information, see our cookies page.


Toll. Gunz toll
 
Na sowas lach

The developer OpenAI has said it would be impossible to create tools like its groundbreaking chatbot ChatGPT without access to copyrighted material, as pressure grows on artificial intelligence firms over the content used to train their products.

Chatbots such as ChatGPT and image generators like Stable Diffusion are “trained” on a vast trove of data taken from the internet, with much of it covered by copyright – a legal protection against someone’s work being used without permission.


Last month, the New York Times sued OpenAI and Microsoft, which is a leading investor in OpenAI and uses its tools in its products, accusing them of “unlawful use” of its work to create their products.


In a submission to the House of Lords communications and digital select committee, OpenAI said it could not train large language models such as its GPT-4 model – the technology behind ChatGPT – without access to copyrighted work.

“Because copyright today covers virtually every sort of human expression – including blogposts, photographs, forum posts, scraps of software code, and government documents – it would be impossible to train today’s leading AI models without using copyrighted materials,” said OpenAI in its submission, first reported by the Telegraph.

Finds immer wieder beeindruckend wie man solche Fragen bei der Erstellung und dann auch bei der Veröffentlichung erst Mal ignoriert, es gilt ja schließlich Geld zu machen, nur um danach zu merken dass es nicht so toll war und es auch nicht alle super finden.
 
"Ja also was wir machen geht nicht, ohne Gesetze zu brechen, und dann ist ja klar, was da die logische Konsequenz ist"
 
Na sowas lach



Finds immer wieder beeindruckend wie man solche Fragen bei der Erstellung und dann auch bei der Veröffentlichung erst Mal ignoriert, es gilt ja schließlich Geld zu machen, nur um danach zu merken dass es nicht so toll war und es auch nicht alle super finden.

Die Herangehensweise ist natürlich absolut ignorant. Frage ist natürlich inwieweit man als Marke/ Publisher - was auch immer - Vorteile erzielen kann, wenn man seine Daten OpenAI öffnet. Die ganze Diskussion hatten wir mit Google und den Publishers ja auch schon vor Jahren.
 
Na sowas lach



Finds immer wieder beeindruckend wie man solche Fragen bei der Erstellung und dann auch bei der Veröffentlichung erst Mal ignoriert, es gilt ja schließlich Geld zu machen, nur um danach zu merken dass es nicht so toll war und es auch nicht alle super finden.
training data. wenn ich einen van gogh anschaue und danach ein bild male, mach ich auch nix verbotenes.
 
Wieso ist das wie samplen, das wird doch alles neu gemacht und auch nichts kopiert also was für Copyright an wen? Die AI macht doch letztendlich auch nichts anderes, als was menschliche Künstler schon immer machen.
 
Zurück
Oben Unten