Forum


Spickzettel

Neben den Buttons stehen unter anderem folgende BB-Codes zur Verfügung:

Bildgröße beschränken:
[img width=400 height=300]Bildadresse[/img]
Weglassen von height o. width behält Bildverhältnis bei.

Tabelle:
[table]
[tr][td]Zelle 1/1[/td][td]Zelle 1/2[/td][/tr]
[tr][td]Zelle 2/1[/td][td]Zelle 2/2[/td][/tr]
[/table]
[tr] = Zeile [td] = Zelle

Text:
[u]unterstreichen[/u]
[s]durchstreichen[/s]
[size=4]skalieren[/size]
[sup]hochsetzen[/sup]
[sub]runtersetzen[/sub]
Umbrechen[Br]Neue Zeile
[center]zentriert[/center]
[left]linksbündig[/left]
[right]rechtsbündig[/right]
[rtl]von rechts einschieben[/rtl]
[pre]Vorformattierung erhalten[/pre]
[move]Bewegen/Laufschrift[/move]
[shadow=red,right]Schattieren[/shadow]
[font=arial]Anderer Zeichensatz[/font]
[glow=yellow,2]„glühen“/markieren[/glow]

Horizontale Linie: [hr]

Abkürzung mit Erklärung bei Mouseover:
[acronym=Mysteriöse Inselzone]MIZ[/acronym]
am besten auch unterstreichen:
[acronym=Mysteriöse Inselzone][u]MIZ[/u][/acronym]

Link innerhalb des Beitrages oder derselben Seite:
Ziel setzen: [anchor=Ziel]Ziel[/anchor]
Link darauf: [iurl=#Ziel]Link zum Ziel[/iurl]

Link im selben Fenster öffnen:
[iurl]http://www.apfelinsel.de[/iurl]

Achtung - während Du das Thema gelesen hast, wurden 15 neue Beiträge geschrieben. Du solltest das Thema erneut lesen.
Name:
Betreff:

Verifizierung:
Buchstaben anhören

Gib die Buchstaben aus dem Bild ein:


Zusammenfassung

Autor: Florian
September 04, 2021, 17:19:02
Das Durchfiltern ist erstmal verschoben, um „Input“ einzuholen. Hätte man vielleicht vorher machen sollen. Auch scheint es nicht ganz so dringend und alternativlos zu sein… jedenfalls habe ich Apple noch nie so rumeiern sehen wie zur Zeit.
Das gilt auch, anderes Thema, für die Neuerungen bei Safari, die nun großteils wieder zurückgenommen wurden. Scheinbar werkelt man vor sich hin, bis selbst die treuesten Apple-Schreiber aufschreien. Solche Leute sollte man intern auch haben.

https://www.heise.de/news/Umstrittene-Kinderschutzfunktionen-in-iOS-15-Apple-schiebt-Einfuehrung-auf-6181788.html
Autor: Florian
August 11, 2021, 20:19:48
Scheinbar hat Apple wirklich keine Ahnung von ihren Kunden, der Öffentlichkeit insgesamt oder den eigenen Werbeversprechen.
Erst verkündet man so eine Entscheidung, dann spielt man runter, dann schiebt man eine FAQ nach, die wesentliche Fragen offen lässt und auf die Kritik praktisch gar nicht eingeht.

„Wer unschuldig ist, hat nichts zu befürchten“.
Habe ja schon geschrieben, dass dieser Satz (bzw. ähnliche Sätze) eine Geschichte haben. Wie die Regierungen vieler Länder stellt also auch Apple die Privatsphäre generell zur Disposition. Denn mit dem Spruch kann man - scheinbar - alles rechtfertigen.

Jeder ist schuldig, bis das Gegenteil bewiesen ist. Macht Euch nackig!
Autor: Florian
August 08, 2021, 19:00:59
Tidbits hat ein FAQ auf Lager, das aber selbst schon reichlich länglich ist.
https://tidbits.com/2021/08/07/faq-about-apples-expanded-protections-for-children/

Apples Äußerungen klingen altbekannt. Privacy-Chef Neuenschwander sagt der New York Times fast wortwörtlich „wer nichts verbrochen hat, hat nichts zu befürchten.“, womit in aller Welt die Politik argumentiert, wenn sie den Rechtsstaat aushöhlt.
Zitat
If you’re storing a collection of C.S.A.M. material, yes, this is bad for you. But for the rest of you, this is no different.
https://www.nytimes.com/2021/08/05/technology/apple-iphones-privacy.html

Auch die Argumentation, man beschränke sich auf „saubere“ Länder, ist nichts mehr als eine Nebelkerze. Als könne sich Apple wirklich den Gesetzen entgegen stellen, wie sie in Diktaturen gelten. Dann steht da wieder „unter Beachtung der örtlichen Gesetze“.

Kindesmissbrauch ist ein furchtbares Verbrechen. Das gilt aber auch für andere Delikte. Mit welchem Argument gedenkt Apple, sich hier zu beschränken? Schlagwort Terrorismus, wobei der Begriff ja, je nach Regierung, recht unterschiedlich gehandhabt wird.

Und als Krönung wird die Hash-Datenbank auch noch auf Handy geladen. Aber es sind nur die betroffen, die iCloud nutzen… dann könnte man die Photos auch dort analysieren. Also was soll das?
Einzig Apple ist fein raus und hat nicht zu viel Schmutz auf seinen Servern.

Nur das kein Mensch solche Photos oder Videos auf iCloud lädt. Gut, grenzdebile Pädophile mag es geben, aber die Fallzahlen dürften extrem niedrig sein.

Natürlich werden über die technische Umsetzung nur Schemata offengelegt. Code Audit gibt es bei Apple ja generell nicht.

Was ich noch vergessen habe: in Zukunft warnt Siri bei der Suche nach strafbaren Inhalten.
Missverständlich formuliert von mir: Der Schutz der Kinder vor Nacktheit gilt für alles, was Apple als Pornographie ansieht.
Es sind aber nur Kinder unter 12 Jahren betroffen, die innerhalb eines Familienaccounts als solche definiert wurden.

Ich sehe keine Eile, aber wenn Apple das wirklich umsetzt und sich dann weiterhin als Privacy-Hero aufspielt, ist mein Maßkrug übergelaufen. Dann werde ich die Geräte nach und nach abstossen und wo es geht auf Open Source setzen. Was man eigentlich sowieso schon immer tuen sollte…
Autor: MacFlieger
August 07, 2021, 19:22:36
Ich muss mir das auch erst einmal in aller Ruhe anschauen, komme da aktuell aber nicht dazu.

Mein erster Eindruck ist ähnlich wie Deiner: Das ist eine gefährliche Kiste und passt nicht gut zu Privacy.
Autor: Florian
August 07, 2021, 18:24:46
Scheint Euch nicht besonders zu interessieren, während das Internet überkocht? Das System ist erstmal nur in den USA aktiv, wie ich mittlerweile eruiert habe.

Zwei Stimmen die technisch korrekt darstellen:

John Gruber, wie immer unaufgeregt und wie meist eher Apple-freundlich.
https://daringfireball.net/2021/08/apple_child_safety_initiatives_slippery_slope

Die EFF als die Aktivisten, die sie sind, liegen mir in dem Fall näher.
https://www.eff.org/deeplinks/2021/08/apples-plan-think-different-about-encryption-opens-backdoor-your-private-life

 Eine Backdoor, noch so klein, ist eine Backdoor. Apple verspricht, sich zu weigern, andere Sachen damit zu machen. Nur, wer wollte Terroristen schützen? Oder andere Schwerverbrecher?
Zum anderen ist es doch kaum zu erwarten, dass Apple sich wirklich weigert, die Liste zu erweitern, wenn sie dann in dem Land nichts mehr verkaufen dürfen.
Gut, Apple verspricht, dass sie nur in ein Land gehen, wenn sie sich sicher sind damit. Nur, sind die USA wirklich eine so sichere Demokratie mit hohem Datenschutzniveau und ohne Datenfilter fordernde Politiker?

Ich finde das ist kein Alarmismus. Vor allem steht das ganze Unterfangen diametral entgegen zu der jahrelangen Privacy-Werbung. Da muss an jede Aussage jetzt ein Sternchen ran.

Gruber meint, vielleicht sei diese kleine Ausnahme ein Hinweis darauf, dass vollständige iCloud-Verschlüsselung komme. Das wäre die passende Zuckerbrot-und-Peitsche-Politik, die ich Apple zutraue.
Autor: Florian
August 06, 2021, 13:21:49
Kommt schin mit den nächsten Versionen, ebenso können Eltern konfigurieren, dass ihre Sprösslinge keine Nacktfotos tauschen/hochladen können, soweit man das per Filter automatisch erfassen kann, natürlich. Betrifft auch iMessage.

Apple schreibt dazu:

https://www.apple.com/child-safety/

Der Scan bei erwachsenen Kunden scheint sich noch auf iCloud Photo zu beschränken. Analysiert wird aber schon auf dem Gerät.

Wer das nicht will, muss iCloud Photo deaktivieren.

Für mich ist ganz klar, ob das nur die USA betrifft oder international gilt.

Ich glaube zwar nicht, dass hier Kinderschutz nur vorgegeben wird, um andere Inhalte zu filtern. Aber Apple öffnet m.E. die Büchse der Pandora, denn mit welchen Argumenten wollen sie sich jetzt bei anderen Straftaten noch weigern, den Filter anzupassen? FBI und co. arbeiten seit langem darauf hin.




Autor: Florian
August 06, 2021, 10:57:08
Apple hat Ideen publiziert, wie man end-to-end verschlüsselte Kommunikation auf verbotene Photos bzw. Videos scannen könnte. Und zwar auf dem Gerät selbst schon.

https://www.heise.de/news/Apple-plant-iPhone-Scanning-auf-Kinderpornos-Sicherheitsforscher-alarmiert-6156542.html