Twitter testet: Möglicherweise beleidigenden Inhalt wirklich abschicken?
Twitter testet wieder mit seinen Nutzern herum. Manchmal, im Verlaufe einer hitzigen Diskussion, kann es sein, dass Dinge gesagt werden, die nicht so gemeint wurden. Kennt ihr vielleicht auch von Twitter – oder gar aus den Kommentarspalten einiger Blogs. Manche mögen ja gerne Meinung absondern, aber hören sich ungerne die anderer Nutzer an. Twitter führt nun unter iOS ein begrenztes Experiment mit einer Eingabeaufforderung durch, bei der Nutzer die Möglichkeit haben, ihre Antwort vor der Veröffentlichung zu überarbeiten, wenn eine möglicherweise beleidigende Sprache verwendet wird. Klingt klassisch nach Wortfiltern, angereichert mit ein wenig Kontext-Voodoo.
When things get heated, you may say things you don't mean. To let you rethink a reply, we’re running a limited experiment on iOS with a prompt that gives you the option to revise your reply before it’s published if it uses language that could be harmful.
— Twitter Support (@TwitterSupport) May 5, 2020
Würdet ihr sowas hier verwenden, hätte ich heute an anderer Stelle wahrscheinlich nicht so viel absetzen “dürfen“ 😉
Mir tut es ja fast schon ein bisschen leid.