KI im Alltag (macOS/ios)

ich finde diese Funktionen zwar nicht unstreitbar, aber in meinem Alltag helfen mir sehr die Schrift "rauskopier" Funktion von iOs und MacOS - bzw ab iOS 16 / macOS Ventura auch aus Videos sowie das ausschneiden von Elementen aus Fotos (Freistellung) per antippen sowie suchen nach "Synthesizern" auf Bildern oder "Autos", da ich ein großes Bildarchiv habe und mir schon Suchhilfen wie Ort und Inhalte massiv helfen.

Apple nennt das aktuell auch "Intelligenz" und hat im M1 und M2 ja bekanntlich die Neural Engine.

Denkbar wäre auch das herausarbeiten von Audio und trennen einzelner Instrumente aber auch Text aus Videos heraus holen und/oder noch besser - Verskriptung von Gesagtem in Vorführungen wie dem SequencerTalk.

Ja, dadurch ist auch negatives denkbar wie bessere Überwachung. Aber man kann fremde Schilder lesen oder bequemer eine Telefonnummer einfach nur per Cam anwählen.
Da ist sie - die Zukunft. Erst hier wirkt ein OS für mich halbwegs schlau.

Davon kommt sicher mehr. Langsam.

Apples aktuelles Beispiel ist ein Hund auf einem Bild, der mit einem Tipp ausgeschnitten werden kann ohne Hintergrund dann anderswo eingesetzt -- das mache ich beruflich auch ständig für News über Synths. Brauchbar Galore!

Was meint der? Das:

https://youtu.be/0TD96VTf0Xs?t=1201

das ist alles schon drin, die letzte Keynote bringt ja noch mehr..

Hier freistellen eines Hundes durch Touch..


https://youtu.be/q5D55G7Ejs8?t=1101
 
Apropos KI / AI und Freistellen von z.B. Personen aus Fotos.

Die Koala App nutzt seit Kurzem wohl AI, um z.B. den Gesang und andere Musikspuren zu separieren / extrahieren. Ist nicht so ganz aus dem Alltag, aber für den Musikeralltag interessant. Die Technologie/Algorithmen konnte der Entwickler wohl von deezer übernehmen, wenn diese Info ausm Netz stimmt.
Auch ganz interessant, wie „Indie-Entwickler“ / Einzelpersonen solch eine Technologie in der eigenen App nutzen darf, ohne dass die App teurer wird.


https://m.youtube.com/watch?v=CdrGKvehsAY


 
KI war für mich bisher immer hinderlich, weil die Anzahl der Funktionen überladen und ständig irgendwas unerwartetes passiert.

Ergo schalte ich alles ab, weil's nervt oder für mich Mehrarbeit bedeutet
 
dadurch ist auch negatives denkbar wie bessere Überwachung. Aber man kann fremde Schilder lesen oder bequemer eine Telefonnummer einfach nur per Cam anwählen.

Ist es wirklich gut, wenn man sich durch KI entlastet und schlimmstenfalls durch nichtbenutzung bestimmter Gehirnareale eine Rückbildung provoziert?

Siehe Covid Infektion, da These: Durch das aussetzen des Geruchsinns, bildet sich die Hirnleistung zurück.

Das Gehirn ist wie ein Muskel der trainiert werden muss ... Nicht mit dem lösen komplizierter Gleichungen, sondern bestenfalls mit abwechslungsreichen Alltagsaufgaben - und genau die werden durch KI reduziert.
 
Und wo ist jetzt hier KI im Spiel?
Ich entdecke keinen Lern-Aspekt.
Coole Features – keine Frage. Aber das sind doch nur schlau programmierte Dinge und keine programmiert Schlauheit.
Der Bergriff "Künstliche Intelligenz" verkommt m.E. zum inflationären Marketing-Sprech.
 
KI steht für Maschine Learning und hat nur begrenzt was mit echter KI zu tun. Ist aber trotzdem ziemlich cool. Man formt mit Trainingsdaten z.B. 1 Millionen Fotos von Katzen ein neuronales Netzwerk und am Ende kann die KI eben Katzen auf Bildern erkennen. Wie das neuronale Netzwerk der KI am Ende aussieht weiß man aber nicht. Also keiner weiß wie sich die Knotenpunkte im neuronalen Netz geformt haben, so dass sie am Ende Katzen erkennen. Programmiert ist nur die Hülle und nicht was am Ende rauskommt. Das Training von KIs kann ziemlich rechenintensiv sein, aber wenn die KI fertig "gelernt" hat und wenn man sie anwendet braucht sie nicht wirklich viel CPU Power, das ja der Witz an einem neuronalen Netzwerk.
 
Brauchen KIs viel CPU? Ich glaube nicht, dass ja der Witz.
Machine Learning hat ja Engines im M1/M2 - für den Scan von vielen Fotos oder Sounds brauchst du schon etwas Zeit - aber selbst suchen wäre viel aufwendiger oder du findest es einfach nie.
nichtbenutzung bestimmter Gehirnareale eine Rückbildung
also ich kann das nicht erkennen, ich hätte zB saugern eine Funktion, nach denen ich Bilder aufgrund von Beschreibungen finden kann -zB suche mir das Bild von einem Roland-Synth der so oder so da steht oder auf dem XYZ drauf steht oder wo man ein Auto in rot sieht und einen gelben Sonnenstrahl am Abend mit..
ich suche oft nach Fotos wo ich schon weiss wie sie sind aber nicht finden kann - was ich schon kann ist nach Ort und Datum und nach Namen suchen kann - aber die KI könnte Kontext suchen - ähnlich wäre das bei Sounds und Textbeiträgen in Audio - wäre super wenn ich mir von der KI eine Stelle suchen lassen kann - zB ich hatte doch einen Beitrag im SequencerTalk dazu gemacht - da sagt jemand etwa "Text Text Text" - wäre also super wenn ich nur noch 2-3 Dinger durchsuchen müsste als alle 134 Hauptsendungen plus Monologe und Sondersendungen. Das nur als Beispiel - zB wenn ich nur 5 Minuten aus einem Gesamtinhalt meine und zeigen wollte.

Ich glaube die Fähigkeit das alles systematisch durchzuhören würde ich dadurch nicht verlieren - sondern eher aufgeben und es halt neu erklären oder das Foto nicht finden etc..
Ich hatte zB ein Foto von Dave Smith - wusste es ist von der Superbooth - aber welche? Das wäre also super, weil Apple kann Personen finden wenn man die auch entsprechend vorliegen hat und die hier und da vor kommt. Sagen wir mal - deine Freundin wird auftauchen, Freunde allgemein, Leute die du viel siehst - das kann schon sehr helfen.
Frage: Das würde welche Fähigkeit meines Gehirns killen, wenn ich das nutze?


Weiterer Gedanke: Suchen und Recherchieren
KI im Sinne von Big Data könnte ich mir auch super vorstellen um Musikzusammenhänge oder sowas zu erforschen, oder wie ein generischer Synthesizer aussehen würde wenn man 1000 Synths reinschmeißt und sonst FM Synths und etwas baut, was das zusammenführt. Ist nur ein Beispiel - hier kann ich mir auch selbst Gedanken machen und hab ich auch schon. Aber - man könnte in der Forschung und Medizin oder Sprachwissenschaft bestimmt spannende Zusammenhänge finden oder bemerken. Sowas würde ich oft einfach aus Spaß ausprobieren, wenn das auch jeder Doof reinbringen kann - so allgemeine Tools gibt es aber noch nicht.

Das mit Covid habe ich nicht verstanden, meintest du das als Reaktion allgemein? Das ist bei Covid nur bei einigen und nicht bei allen (ich hatte "es" schon und hab keinen Geschmack zB behalten) aber für die Forschung könnte man ggf. finden, wie oft sowas vorkommen und ob es andere Zusammenhänge gibt - um auch individuelle Fälle besser einordnen und finden zu können, so man das erfasst hat wäre das vielleicht auch bei den Maßnahmen interessant - also wenn man gar keine hat und harte und einiges dazwischen und das untersucht für andere wellen und für total tödliche und andere Fälle um da das richtige parat zu halten inkl Reaktionen der Leute - heute wissen wir zB dass sich krasse Gruppen bilden können und je nach Einschränkung auch Folgen in der Gesellschaft zu finden sind. Das wäre doch für uns als Menschheit und für bessere Politik schon mal ein Aspekt..
Ist also auch nur eine Idee was man damit machen könnte - solang man das nicht als Allheilmittel sondern als Ansatz für weitere Forschung nutzt, ist das gut.

Aber das man mit dieser Art von ML / KI nicht intelligente Lösungen finden kann versteht sich aus dem Prinzip heraus. Keine Sorge. Diese Intelligenz kann aber organisieren helfen und recherchieren - hätte ich für meine Arbeit gern - für Fotos Texte und Worte und Phrasen zB..

keine programmiert Schlauheit.
Ja, sehe ich auch so - ich hätte es auch gern noch besser - aber es ist das was ich an einem OS neuerer Art mag, das es nicht nur ein DOS mit Grafik ist sondern endlich mal etwas weiter geht - APIS und mehr sollte es geben dafür -damit wir selbst etwas erstellen können was etwas komplexer ist und Expertensysteme und echte Intelligenz werden wir vorerst nicht erwarten können. Ich sehe darin also auch nur ein Werkzeug, weil das nur ein einziger Typus von KI und noch eher eben ML ist - denn das was ich oben beschreibe ist nur, dass man Zusammenhänge herstellt, Dinge mehr verbindet und praktischer macht - es geht meh..

stimme also Martins Beitrag zu, mehr wäre super, aber allein für sortieren und finden, untersuchen und so weiter wäre das eine schöne Hilfe.


-
Mir fehlt eben erstmal eine einfache Intelligenz, die selbst hier im Forum oder im OS deutlich mehr Zeug machen könnte, was nur stumpf ist. Das 1.0 kann gern 2.0 werden.
 
Die KI muss natürlich auf alles was man suchen möchte trainiert sein. Was von deinen Beispielen es schon gibt wäre interessant. Es gibt eben keine universal KI, alles muss vorher trainiert sein.
 
Das funktioniert doch alles mittlerweile. Zumindest mit Bildern. Wenn ich bei Fotos „Auto“ und „Schnee“ suche, kommen alle Bilder mit Schnee und Autos drauf. Gleiches bei Sonne. Da kommen nur Bilder mit Sonne im Hintergrund.
Personen sollte man alle benennen und auch regelmäßig pflegen. Das dauert 2-3min die Woche, paar Bilder zu bestätigen. Du kannst genauso nach Brot suchen oder Pfanne oder Hund oder oder. In iOS 16 soll dann auch der Text auf Fotos mit in den Index einbezogen werden. Habt ihr vielleicht was verstellt oder warum funzt das bei euch nicht?
 
Was ich mich frage ist, wo und wer die ganzen Bilder annotiert hat, damit die KI das lernen kann. Das ist wahrscheinlich die Hauptarbeit. Würde mich auch interessieren, wie man da genau vorgeht, ob Quasi auf einem Bild alles annotiert was drauf ist und wie viel Bilder google etc. schon hat wo alles annotiert ist.
 
Da gibt's ne ganze Menge schon fertig:
https://en.wikipedia.org/wiki/List_of_datasets_for_machine-learning_research

Zusätzlich gab's auch immer wieder mal so spielerische Aktionen z. B. von google, wo man ein Bild gezeigt bekommt, und dann sagen muss, ob die Klassifikation stimmt oder nicht. So ähnlich wie Captchas. Aber ehrlich gesagt glaube ich, dass auch mit Captchas Datasets für's AI Training erstellt werden... ;-)

Dass man große Datensets für Machine Learning braucht ist ja nicht erst durch Neuronale Netze gekommen, das war ja schon bei klassischen (also statistischen) Methoden so. Deswegen gibt's seit Jahrzehnten bereits Know How zur Erzeugung von Trainingssets, das auch immer noch ausgebaut wird.
 
Was ich noch nicht verstehe ist, ob die neuronalen Netze jeweils einzeln sind. Also eins für Autos, eins für Katzen etc. oder ob man inzwischen ein Gemisch trainieren kann.
 
Beides ist möglich, beides wird gemacht.
Wenn dein Smartphone eine Objekterkennung auf deinen Fotos macht, ist das ja eine andere Aufgabenstellung, als wenn ein Forschungsteam für Blauwale auf Fotos von der Meeresoberfläche den Blas von Blauwalen erkennen will.
Für Erstes ist die Aufabenstellung "erkenne und klassifiziere prominente Objekte auf dem Bild". Für Zweites gibt's "unterscheide Blas von Wellen und sag mir ob auf einem Foto Blas ist, oder nur Wellen".
Für Erstes wird _vermutlich_ das Netz gegen eine Datenbank aus Objekten trainiert, die sowohl Autos, als auch Katzen enthält. Für Zweites wird halt nur gegen Wellen und Blas trainiert, und nicht gegen Autos.

Vermutlich wird man diese Netze dann von vornherein mit einem unterschiedlichen Design anlegen (denn bestimmte Designs funktionieren für bestimmte Daten besser, als andere: Für ein Netz, das Text oder Sprache analysiert, brauchst du andere Dimensionen, als für Bilder). Auf jeden Fall haben Netze dann eine andere Topologie, also welche Knoten in den aufeinanderfolgenden Ebenen wie ausgeprägt sind. Soviel auch zu deiner Aussage, keiner wisse, wie die Knotenpunkte dann im Netz aussehen. Klar weiß das jemand, ist ja kein Geheimnis. Kann man nach dem Trainieren nachschauen, wie die aussehen. Zum Teil kann man sogar sagen, was bestimmte Gruppen an Knoten "machen". Es sind halt einfach _viele_, aber nur, weil es unübersichtlich ist, heißt das ja nicht, dass sich keine Strukturen und Muster ausbilden.

Die Neural Engine in den Apple Chips ist meines Wissens nach (möglicherweise irre ich mich hier) für die Inferenz, also die Anwendung eines Netzes, nicht für das Trainieren "neuer" Netze.
 
Zuletzt bearbeitet:
Das funktioniert doch alles mittlerweile. Zumindest mit Bildern. Wenn ich bei Fotos „Auto“ und „Schnee“ suche, kommen alle Bilder mit Schnee und Autos drauf. Gleiches bei Sonne. Da kommen nur Bilder mit Sonne im Hintergrund.
Personen sollte man alle benennen und auch regelmäßig pflegen. Das dauert 2-3min die Woche, paar Bilder zu bestätigen. Du kannst genauso nach Brot suchen oder Pfanne oder Hund oder oder. In iOS 16 soll dann auch der Text auf Fotos mit in den Index einbezogen werden. Habt ihr vielleicht was verstellt oder warum funzt das bei euch nicht?
Es könnte noch besser funktionieren - zB nicht nur "rote Autos" sondern eben "roter Renault" noch besser "roter R4".
Also spezieller oder "Regler Cutoff" - wenn das ginge wäre auch einiges einfacher.

Bei mir klappt das und ich nutze das seitdem es das gibt - aber es geht noch besser, ML kann mehr. Meine Beispiele sind ja aus dem echten Leben - nicht von "bald".
 
Die Frage ist, ob sowas wie „Synth xy von unten fotografiert“ funktioniert. So banale Sachen wie Auto und Sonne gehen nachtürlich.
Noch nicht - aber ich wäre "dafür" - Personen erkennen geht - aber Synths halt nicht - zuverlässig kann manches nur "schaltzentrale" oder "nachtclub" sein, auch mal "konzert" - das ist aber was was natürlich wegen des nicht allgemeinen Interesses so ist wie es ist. Dazu müsste man nur die Synth DB oder Thomanns DB einmal da rein werfen - ebenso bei Autos oder was sonst noch.

Also machbar ist es. Bei Bildern.

Bei Sounds und Texten bzw Audio-Aufnahmen von Texten ist es auch noch so, dass wir da noch immer nicht wirklich gute Kapitelmarken draus machen könnten - das wäre ein RIESENGEWINN - beispiel: Ich suche etwas über den JD08 und zwar über den Sync (als Beispiel) - ideal von Nick Batt oder Red Means Recording - diese 3 Parameter wären technisch denkbar - so die Hashtags gut gesetzt sind - und noch besser wenn man auf die Sekunde einen Abschnitt finden könnte. Ich glaube das wäre sehr hilfreich für eine Menge User.
Siehe Podcasts!
 
Derart Gesellschaftumformendes auf banale Dinge wie Bildersuche zu reduzieren wird der Brisanz des Themas nicht gerecht.

Überwachung halte ich mittlerweile für das geringere Problem. S.o.
 
Derart Gesellschaftumformendes auf banale Dinge wie Bildersuche zu reduzieren wird der Brisanz des Themas nicht gerecht.

Überwachung halte ich mittlerweile für das geringere Problem. S.o.
Der Thread hier ist, weil ich diese Technik toll finde und hilfreich und sie gern erweitert sehen will.
Ich nutze das und würde auch mehr nutzen - es könnte gern noch mehr sein und einem abnehmen, was man sonst manuell machen muss.
Mein Thema hat keine Brisanz, da ich das Thema entsprechend eingegrenzt habe - ein bisschen nerdig in dem Falle und nützlich - nicht nur "um der Sache willen" aber auch ohne Quatsch - sondern echte Beispiele die funktionieren. Was wir ja als User nicht können ist selbst Vergleiche anzuordnen - sowas wäre echt spannend, auch wissenschaftlich. Das ein oder andere würde ich da gern mal nutzen - auch vor dem schon beschriebenen Hintergrund.

Ich schreib im ersten Post, dass mir bewusst ist, dass man das auch schlecht nutzen kann - kann man immer. Aber ich möchte hier über den positiven und sinnvollen Aspekt sprechen und finde es einfach technisch spannend und wo es wohl auch noch zum Einsatz kommen könnte.

Apple ist nicht die einzige Firma - die haben aber mit der ML schon klar einen Teil ihrer Prozessoren damit ausgestattet und das ist schon ein dickes Signal - wir machen was, wir bauen das aus und so weiter.

Für die allgemeine Überwachung ist Applezeug bisher auch nicht "geeignet" aber missbrauchsfähig wäre das natürlich.
Das wäre aber eine andere Diskussion, die wir auch mehr hatten als die positive Überlegung, wo und was wir damit JETZT machen und machen möchten.

Und wer Beispiele kennt, gern posten. Ebenso was bald kommt. Nicht in 20 Jahren, sondern eher wirklich bald.
 
Die Frage ist, ob sowas wie „Synth xy von unten fotografiert“ funktioniert. So banale Sachen wie Auto und Sonne gehen nachtürlich.

Ja, weil Synth von unten die Welt halt nicht (wirklich) interessiert. Das ist eine extreme Nische. Genauso wie ein Cutoff-Regler.

Das iPhone legt (mir) genug Daten ab um in meinen 7000+ Fotos und 600+ Videos alles schnell und unkompliziert zu finden, was ich gerade suche. Hatte da noch nie Probleme was schnell zu finden 🤷‍♂️
 
Ich nutze iPad und iPhone viel mit Wischerei und Stift. Da merkt man schon ziemlich deutlich ein Machine Learning dahinter. Die Sachen hab ich inzwischen ganz brauchbar trainiert.
Noch interessanter wird es wenn mir Textbausteine vorgeschlagen werden.
 
Ganz ulkig, oder erschreckend.
Wenn nicht einmal "KI" Entwickler eine Ahnung davon haben was KI ausmacht.

Dass es dort um einen KI Entwickler geht, geht aus dem Text aber nicht hervor. Es ist lediglich die Rede davon, dass der Mann die Software auf Sicherheit in der Benutzung testen sollte.
Also vermutlich eher ein UX Ingenieur oder ein Security Ingenieur, je nach dem was hier mit „Sicherheit“ gemeint ist.

Es liegt nahe, dass die KI Entwickler dagegen jene sind, die auf die Emails des Mannes nicht geantwortet haben - weil sie wissen, „was KI ausmacht“.
 
Solange so eine KI folgende Frage nicht beantworten und ausführen kann, taugt sie nix. :fressen:
Ok Google, warum zerstört MacOS Monterey die BTN von externen SSD Laufwerken, die mit APFS formatiert sind, und kannst du das reparieren? :pcsuxx:
 
Zuletzt bearbeitet von einem Moderator:
KI ist doch die neu-moderne Sau, die von viel maximal Halb-Wissenden als das Allheilmittel durchs Dorf getrieben wird.

Aehnliches ist doch mit dem Begriff Digitalisierung passiert. Erst seit 10 Jahren bei vielen Leuten En-Vogue. Teufelszeug und Heilsbringer zugleich. Hat aber schon vor mehr als 50 Jahren begonnen. Da haben die meisten wohl gepennt.

KI ist doch auch nur Software (inwzischen teils durch Hardware beschleunigt), die Muster erkennen kann. Sei es auf Bildern, Videos, Audio oder in Datengräbern aus IT, Finanzen, Weltgeschehen. Und die KI muss trainiert werden, wie hier schon oft gesagt wurde. Und man kann sie sogar übertrainieren. Dann erkennt sie DInge eben schlechter oder garnicht mehr.

Software generell ist doch auch nur die Automatisierung bekannter Abläufe. Bei KI ist is auf Bildern bestimmte Personen erkennen "... ach guck mal, da ist ja der Franz ". Und diese bekannten Abläufe entstammen dem menschlichen Hirn&Denken. Die KI kanns halt nur viel viel schneller.

Bisher ist die Rede eigentlich nur von weicher KI. Die ist stoisch systematisch, voll sachlich, faktenbasiert und dafuer eben "geeignet" trainiert. Dann gibts da noch die harte KI.

Die harte KI ist die, die es bislang nur in der Science Fiction oder alten Gruselfilmen gibt. Roboter oder generell Automaten, die auch Emotionen haben und auch schon mal danach entscheiden. Wie ein Mensch eben. HAL9000 aus Odyssee 2000 ist auch einer.

Und davon sind wir zum Glueck noch weit entfernt. Was es da bislang gibt sind bestenfalls Krücken, die marketing-technisch perfekt inszeniert sind.

... just my two cents. ...
 
Dass es dort um einen KI Entwickler geht, geht aus dem Text aber nicht hervor. Es ist lediglich die Rede davon, dass der Mann die Software auf Sicherheit in der Benutzung testen sollte.
Also vermutlich eher ein UX Ingenieur oder ein Security Ingenieur, je nach dem was hier mit „Sicherheit“ gemeint ist.

Es liegt nahe, dass die KI Entwickler dagegen jene sind, die auf die Emails des Mannes nicht geantwortet haben - weil sie wissen, „was KI ausmacht“.

Blake Lemoine behauptet von sich selbst er sei AI Researcher. Hat wohl auch irgendwo im Bereich des Ethic AI Research Projekt von Google mitgearbeitet.
 


Zurück
Oben