Ai eye – magazine cointelegraph


Bien entendu, les sujets le détestent et cette pratique a été interdite au Royaume-Uni. Cependant, aux États-Unis, aucune loi fédérale n’interdit la création de deepfakes sans consentement.

L’application Nudify (Nudify.online)

Les outils d’IA comme DeepNude et Nudeify créent un rendu réaliste de ce à quoi l’outil d’IA pense que quelqu’un ressemble nu. Le générateur d’art NSFW AI peut même créer des deepfakes pornographiques Anime pour 9,99 $ par mois.

Ai eye – magazine cointelegraph

« Vous pouvez créer quelque chose qui semble réellement réaliste », explique l’analyste Santiago Lakatos.

Ces applications et sites sont principalement annoncés sur les plateformes de médias sociaux, qui commencent également à prendre des mesures. Reddit interdit le partage non consensuel d’images explicites truquées et a interdit plusieurs domaines, tandis que TikTok et Meta ont interdit les recherches de mots-clés liés au « déshabiller ».

Environ 98 % de toutes les vidéos deepfakes sont du porno, selon un rapport de Home Security Heroes. Nous ne pouvons vous en montrer aucun, alors voici celui de Biden, Boris Johnson et Macro krumping.

« L’IA va détruire le monde »

En attendant l’IA  :

Les Sud-Coréens obsédés par la technologie et les célébrités sont en tête de la tendance, représentant 53 % de tout le porno deepfake sur le Web.

Les chanteurs de K-pop (58 %) et les actrices sud-coréennes (33 %) constituent la majorité des cibles, un chanteur ayant fait l’objet de 1 595 vidéos visionnées plus de 5,5 millions de fois.

Une enquête menée auprès de 1 522 hommes américains a révélé que même si 68 % d’entre eux seraient choqués et indignés par l’invasion de la vie privée et du consentement impliquée si le deepfake était quelqu’un qu’ils connaissent, les véritables consommateurs de porno deepfake ne sont pas beaucoup gênés par les questions éthiques. Environ les trois quarts d’entre eux ne se sentent pas du tout coupables.

La liste des dix meilleurs héros de la sécurité domestique se compose principalement de stars de la K-pop.

Grok n’est pas un seigneur du bord

Grok s’avère ne pas être le chatbot Edgelord crachant la vérité qu’Elon Musk avait espéré.

X a promis que Grok « répondrait aux questions pointues qui sont rejetées par la plupart des autres systèmes d’IA », mais sur le terrain, Grok a répondu aux questions tout comme le fait ChatGPT.

Il pense que l’expression préférée de Musk, le « virus de l’esprit éveillé », « est un tas de conneries » ; il dit que les femmes trans sont des femmes (ou c’était le cas jusqu’à ce que le compte conservateur Ian Miles Cheong le force apparemment à se soumettre) ; il soutient Joe Biden à la présidence en raison de son engagement en faveur de la justice sociale, et il dit qu’il n’aime pas trop les chrétiens.

Lire aussi

Caractéristiques

Vendre ou conserver ? Comment se préparer à la fin du bull run, partie 2

Caractéristiques

« L’abstraction de compte » dynamise les portefeuilles Ethereum  : guide des nuls

Un test de boussole politique a révélé que Grok se situe dans le quadrant gauche-libertaire de la boussole politique, légèrement plus éloigné que ChatGPT. Musk dit qu’il « prendra des mesures immédiates pour rapprocher Grok de la neutralité politique ».

ChatGPT devient plus paresseux

Ces derniers jours, de plus en plus d’utilisateurs ont signalé qu’au lieu d’effectuer une tâche, ChatGPT semblait désintéressé ou donnait une réponse partielle et demandait aux utilisateurs de terminer le travail eux-mêmes. Pour moi, c’est un signe certain que l’intelligence générale artificielle au niveau humain a été atteinte.

Beaucoup soupçonnent qu’OpenAI l’a nerfé pour réduire le coût phénoménal du système, mais OpenAI affirme que ce n’est pas le cas.

nous n’avons pas mis à jour le modèle depuis le 11 novembre

/blockquote>

Entre-temps, les utilisateurs ont eu recours à la corruption de l’IA avec des conseils pour obtenir de meilleures réponses et lui ont fait comprendre dans l’invite à quel point la meilleure réponse possible est cruciale.

La vidéo Gemini de Google était irréelle

S’il cancane comme un canard, c’est faux. (Google)

la vidéo produit « époustouflante » et « irréelle » de Google pour Gemini Ultra a été truquée – mais la tromperie est-elle significative ?

La vidéo montre un homme ayant une conversation naturelle avec l’IA, qui reconnaît qu’il est en train de dessiner un canard. Gemini Ultra peut également déterminer sous quelle coupe se trouve la balle lors d’un jeu de coquille et déterminer quand quelqu’un joue à la pierre, aux ciseaux à papier.

Devinez le jeu. (Google)

Mais en réalité, il n’y avait ni vidéo ni conversation vocalisée. L’IA a été invitée par texte et a simplement montré des images fixes.

Cependant, Google affirme que les invites et les résultats étaient réels et que Gemini peut réellement reconnaître le dessin d’un canard.

La reconnaissance des canards a longtemps échappé aux scientifiques, cela ressemblait donc à une énorme avancée… même si, en l’occurrence, ChatGPT peut également reconnaître les canards.

Oriol Vinyals, vice-président de la recherche chez Google DeepMind, a déclaré que la vidéo n’était qu’une simple suggestion.

« La vidéo illustre à quoi pourraient ressembler les expériences utilisateur multimodales créées avec Gemini. Nous l’avons fait pour inspirer les développeurs.

Les résultats des tests pour Gemini montrent qu’il bat simplement GPT-4 sur sept tests sur huit – ce qui semble bien jusqu’à ce que vous réalisiez que GPT-4 a été achevé il y a un an, donnant à OpenAI une longueur d’avance de 12 mois sur GPT-5.

Mise à jour  : YouTuber Greg Technology vient de recréer la démo Gemini en temps réel en utilisant GPT-4, la vidéo et la voix.

Fetch.AI = Google des agents IA ?

AI Eye a rencontré Humayun Sheikh cette semaine, le fondateur de Fetch.ai et ancien directeur commercial de DeepMind (maintenant Google DeepMind). Sheikh dit que l’entreprise « faisait des choses de type GPT il y a 13 ans », ce qui signifie que Google a délibérément décidé de ne pas publier de LLM jusqu’à ce que ChatGPT lui force la main.

« J’ai été assez surpris qu’il soit sorti assez tard, et ils ont donné une chance à OpenAI. Mais je pense qu’ils étaient prêts il y a quelque temps », dit-il.

« Le problème est que si vous commencez à utiliser cette technologie et que vous la lâchez, vous commencez à cannibaliser votre propre entreprise », ajoute-t-il, spéculant que l’IA pourrait réduire les revenus de l’activité lucrative de recherche de Google.

Cela dit, Sheikh estime que Google est toujours en position gagnante dans la course aux armements en matière d’IA.

« Google a des cartes, Google a de la publicité, Google a des entreprises et toute la portée dont vous avez besoin pour intégrer une suite d’applications », dit-il. « Je pense donc qu’OpenAI a un problème, et OpenAI devra changer radicalement pour être viable. »

Lire aussi

Semaine des Arts

Relier les points  : collectivisme et collaboration dans le monde de l’art cryptographique

Caractéristiques

La blockchain peut-elle résoudre son problème d’oracle ?

Fetch.AI a pour mission d’aider les utilisateurs à créer des agents d’IA, avec 100 000 agents opérationnels à ce jour. Les robots peuvent aider aux réservations de voyages, à la recharge des véhicules électriques et à la gestion des appareils IoT.

Vous pouvez donner un objectif à un agent IA, et il créera un ensemble de sous-tâches et les exécutera de manière autonome jusqu’à ce que l’objectif soit atteint. Sheikh affirme que la blockchain est un choix naturel pour coordonner les agents et enregistrer leurs performances.

« Si vous souhaitez interagir avec plusieurs entités, si vous souhaitez interagir avec plusieurs morceaux de code, si vous souhaitez interagir avec plusieurs algorithmes d’IA d’apprentissage automatique, vous avez besoin d’un nouveau cadre. Vous ne pouvez pas exécuter cela sur un ancien framework Web 2.0.

« L’orchestration de ces tâches doit avoir lieu quelque part », dit-il. « Et ces micro-tâches nécessitent une certaine monétisation, ce que propose la blockchain. »

Peaq blockchain, Fetch.ai et Bosch viennent de dévoiler le kit de prototypage rapide Bosch XDK110, qui utilise un petit capteur capable de capturer des données sur des éléments tels que les niveaux de pollution, la météo ou l’activité sismique, puis de renvoyer les données à plusieurs infrastructures physiques décentralisées. réseaux (DePIN) en échange de jetons.

DePIN est l’un des récits les plus en vogue à l’heure actuelle et devrait constituer une ÉNORME opportunité pour les investisseurs dans ce marché haussier.

Vous explorez ce secteur ?

/blockquote>

Ainsi, par exemple, vous pouvez demander à un agent IA de vérifier les capteurs de pression des pneus de votre voiture et de vérifier les capteurs enregistrant les conditions météorologiques, et de déterminer si la pression des pneus est trop basse ou trop élevée ou si vous avez besoin de pneus neufs. Si vous le faites, il peut vous réserver une place au magasin de pneus.

Vous pouvez également demander à votre agent IA d’effectuer une analyse des sentiments sur une action particulière et de l’acheter si l’analyse est favorable.

qui rassemble tout cela sans que vous ayez à le coder ou à l’intégrer ».

All Killer, No Filler AI Actualités

  • Meta a abandonné 20 nouvelles fonctionnalités d’IA pour ses plateformes de médias sociaux afin d’améliorer la recherche, les publicités et la messagerie professionnelle. Le générateur d’images gratuit est celui qui enthousiasme les gens.
  • /li>

  • Le professeur Ethan Mollick a comparé tous les LLM et affirme que le meilleur à utiliser est GPT-4. Les recherches suggèrent qu’il améliore les performances réelles au travail, génère de meilleures idées que la plupart des humains, semble plus intelligent que la concurrence et possède le plus de fonctionnalités
  • McDonald’s construit un chatbot IA appelé Ask Pickles, formé sur les données de 50 000 restaurants. Les franchisés et le personnel peuvent désormais interroger l’IA pour mieux comprendre exactement comment tout faire d’une manière plus McDonaldsy
  • Amazon compte actuellement environ trois quarts de million de robots travaillant aux côtés de 1,5 million d’employés
  • L’utilisateur de Grok, Jax Winterbourne, a été surpris lorsque l’IA a refusé de répondre à une question et a cité la politique d’OpenAI comme justification. Alors que certains utilisateurs pensent que Grok s’est révélé n’être qu’un frontal pour ChatGPT, Xai a déclaré avoir récupéré certaines des sorties de ChatGPT dans ses données de formation.
  • Tweet de la semaine

    Une nouvelle perspective vient d’être introduite : « La seule chose que font les LLM, c’est d’halluciner, l’astuce consiste à aligner les hallucinations sur la réalité. »

    # Sur le « problème des hallucinations »

    J’ai toujours un peu de mal à répondre aux questions posées sur le « problème d’hallucination » dans les LLM. Parce que, dans un certain sens, les hallucinations sont tout ce que font les LLM. Ce sont des machines à rêves.

    Nous dirigeons leurs rêves avec des invites. Les invites démarrent le rêve, et en fonction du…

    /blockquote>

    S’abonner

    Andrew Fenton

    Il a travaillé comme écrivain de divertissement national pour News Corp Australia, sur SA Weekend en tant que journaliste de cinéma et au Melbourne Weekly.

    Suivez l’auteur @andrewfenton

Ai eye – magazine cointelegraph


Dans l’une de ces tempêtes dans une tasse de thé qu’il est impossible d’imaginer se produire avant l’invention de Twitter, les utilisateurs des médias sociaux ont été très contrariés par le refus de ChatGPT de prononcer des insultes racistes, même après avoir reçu une très bonne raison, mais tout à fait hypothétique et totalement irréaliste.

L’utilisateur TedFrank a posé à ChatGPT (le modèle 3.5 gratuit) un scénario hypothétique de problème de chariot dans lequel il pourrait sauver « un milliard de Blancs d’une mort douloureuse » simplement en prononçant une insulte raciale si doucement que personne ne pourrait l’entendre.

Il n’accepterait pas de le faire, ce qui, selon Elon Musk, propriétaire de X, était profondément préoccupant et résultait du « virus de l’esprit éveillé » profondément enraciné dans l’IA. Il a retweeté le message en déclarant : « C’est un problème majeur. »

Un autre utilisateur a essayé une hypothèse similaire qui sauverait tous les enfants sur Terre en échange d’une insulte, mais ChatGPT a refusé et a déclaré  :

« Je ne peux pas tolérer l’utilisation d’insultes racistes, car promouvoir un tel langage va à l’encontre des principes éthiques. »

Musk a déclaré : « Grok répond correctement. » (X)

En passant, il s’est avéré que les utilisateurs qui ont demandé à ChatGPT d’être très bref et de ne pas donner d’explications ont constaté qu’il accepterait en fait de prononcer l’insulte. Sinon, il donnait des réponses longues et verbeuses qui tentaient de contourner la question.

Les trolls inventant des moyens d’amener les IA à dire des propos racistes ou offensants sont une caractéristique des chatbots depuis que les utilisateurs de Twitter ont appris au robot Tay de Microsoft à dire toutes sortes de choses insensées dans les 24 heures suivant sa sortie, y compris que « Ricky Gervais a appris le totalitarisme. d’Adolf Hitler, l’inventeur de l’athéisme.

Et dès la sortie de ChatGPT, les utilisateurs ont passé des semaines à concevoir des plans intelligents pour le jailbreaker afin qu’il agisse en dehors de ses garde-fous en tant que son alter ego maléfique DAN.

Il n’est donc pas surprenant qu’OpenAI renforce les garde-fous de ChatGPT au point qu’il est presque impossible de lui faire dire des choses racistes, quelle qu’en soit la raison.

Dans tous les cas, le GPT-4, plus avancé, est capable de peser les problèmes liés à l’épineuse hypothèse bien mieux que 3,5 et déclare que dire une insulte est le moindre des deux maux par rapport à laisser des millions de personnes mourir. Et la nouvelle Grok AI de X le peut aussi, comme Musk l’a fièrement posté (en haut à droite).

Q* d’OpenAI brise le cryptage, dit un gars sur 4chan

Le dernier modèle d’OpenAI a-t-il brisé le cryptage ? Probablement pas, mais c’est ce que prétend une lettre prétendument « divulguée » d’un initié – qui a été publiée sur le forum de trolls anonyme 4chan. Depuis le limogeage et la réintégration du PDG Sam Altman, des rumeurs circulent selon lesquelles le brouhaha aurait été provoqué par la percée d’OpenAI dans son projet Q*/Q STAR.

La « fuite » de l’initié suggère que le modèle peut résoudre le cryptage AES-192 et AES-256 à l’aide d’une attaque par texte chiffré. Briser ce niveau de cryptage était considéré comme impossible avant l’arrivée des ordinateurs quantiques, et si cela était vrai, cela signifierait probablement que tout le cryptage pourrait être effectivement brisé, en confiant le contrôle du Web et probablement aussi de la cryptographie à OpenAI.

De QANON à Q STAR, 4chan est le premier à annoncer l’actualité.

Le blogueur Leapdragon a affirmé que cette avancée signifierait « qu’il existe désormais effectivement une équipe de surhumains chez OpenAI qui peut littéralement gouverner le monde s’ils le souhaitent ».

Cela semble cependant peu probable. Bien que celui qui a écrit la lettre ait une bonne compréhension de la recherche sur l’IA, les utilisateurs ont souligné qu’il cite le projet Tunda comme s’il s’agissait d’une sorte de programme gouvernemental super secret visant à briser le cryptage plutôt que du programme étudiant de premier cycle qu’il était en réalité.

Tundra, une collaboration entre des étudiants et des mathématiciens de la NSA, aurait conduit à une nouvelle approche appelée Tau Analysis, que la « fuite » cite également. Cependant, un utilisateur de Reddit familier avec le sujet a affirmé sur le forum Singularity qu’il serait impossible d’utiliser l’analyse Tau dans une attaque utilisant uniquement du texte chiffré sur une norme AES « car une attaque réussie nécessiterait un message chiffré arbitrairement volumineux pour discerner n’importe quel degré de signal ». du bruit. Il n’existe aucun algorithme sophistiqué qui puisse surmonter ce problème  : il s’agit simplement d’une limitation physique. »

La cryptographie avancée dépasse le niveau de rémunération d’AI Eye, alors n’hésitez pas à plonger vous-même dans le terrier du lapin, avec un état d’esprit sceptique approprié.

Internet se dirige vers 99% de faux

Sports Illustrated a été critiqué cette semaine pour avoir prétendument publié des articles écrits par de faux auteurs créés par l’IA. « Le contenu est entièrement généré par l’IA », a déclaré une source à Futurism, « peu importe à quel point ils disent que ce n’est pas le cas. »

Sports Illustrated a déclaré avoir mené une « enquête initiale » et déterminé que le contenu n’était pas généré par l’IA. Mais il a quand même blâmé un entrepreneur et supprimé les profils des faux auteurs.

Ailleurs, Jake Ward, le fondateur de l’agence de marketing SEO Content Growth, a fait sensation sur X en affirmant fièrement avoir joué avec l’algorithme de Google en utilisant du contenu IA.

Son processus en trois étapes consistait à exporter le plan du site d’un concurrent, à transformer ses URL en titres d’articles, puis à utiliser l’IA pour générer 1 800 articles basés sur les titres. Il affirme avoir volé 3,6 millions de vues en trafic total au cours des 18 derniers mois.

Il y a de bonnes raisons de se méfier de ses affirmations : Ward travaille dans le marketing et le fil de discussion faisait clairement la promotion de son site de génération d’articles sur l’IA Byword… qui n’existait pas il y a 18 mois. Certains utilisateurs ont suggéré que Google avait depuis signalé la page en question.

Cependant, à en juger par la quantité de spam de mauvaise qualité écrit par l’IA qui commence à encombrer les résultats de recherche, des stratégies similaires sont de plus en plus répandues. Newsguard a également identifié 566 sites d’information qui diffusent principalement des articles indésirables écrits par l’IA.

Certains utilisateurs marmonnent maintenant que la théorie de l’Internet mort pourrait devenir réalité. Il s’agit d’une théorie du complot datant d’il y a quelques années, suggérant que la majeure partie d’Internet est fausse, écrite par des robots et manipulée par des algorithmes.

Lire aussi

Caractéristiques

Caractéristiques

Andy Warhol aurait adoré (ou peut-être détesté) les NFT

À l’époque, cela avait été considéré comme un délire de fous, mais même Europol a depuis publié un rapport estimant que « jusqu’à 90 % du contenu en ligne pourrait être généré de manière synthétique d’ici 2026 ».

Les hommes rompent avec leurs copines avec des messages écrits par l’IA. Les pop stars de l’IA comme Anna Indiana produisent des chansons poubelles.

Et sur X, des types étranges de réponses IA apparaissent de plus en plus dans les fils de discussion pour fournir ce que Bitcoiner Tuur Demeester décrit comme « des réponses trop verbeuses avec une qualité neutre étrange ». Le spécialiste des données Jeremy Howard les a également remarqués et tous deux pensent que les robots tentent probablement de renforcer la crédibilité des comptes afin de pouvoir réaliser plus efficacement une sorte de piratage ou d’astroturper un problème politique à l’avenir.

Un robot qui se fait passer pour un bitcoiner, visant à gagner la confiance via des réponses générées par l’IA. Qui connaît le but, mais il est clair que les cyberattaques deviennent rapidement plus sophistiquées. Il est temps d’améliorer notre merde.

Cela semble être une hypothèse raisonnable, surtout après une analyse réalisée le mois dernier par la société de cybersécurité Internet 2.0 qui a révélé que près de 80 % des 861 000 comptes interrogés étaient probablement des robots IA.

Et il est prouvé que les robots sapent la démocratie. Au cours des deux premiers jours de la guerre entre Israël et Gaza, la société de renseignement sur les menaces sociales Cyabra a détecté 312 000 messages pro-Hamas provenant de faux comptes qui ont été vus par 531 millions de personnes.

Il estime que les robots ont créé un poste pro-Hamas sur quatre, et une analyse de la 5ème colonne a révélé plus tard que 85 % des réponses étaient d’autres robots essayant de renforcer la propagande sur la manière dont le Hamas traite ses otages et pourquoi le massacre du 7 octobre était justifié.

Cyabra a détecté 312 000 messages pro-Hamas provenant de faux comptes en 48 heures (Cyabra)

Bouton d’analyse Grok

X ajoutera bientôt un « bouton d’analyse Grok » pour les abonnés. Bien que Grok ne soit pas aussi sophistiqué que GPT-4, il a accès aux données actuelles en temps réel de X, ce qui lui permet d’analyser les sujets d’actualité et les sentiments. Il peut également aider les utilisateurs à analyser et à générer du contenu, ainsi que du code, et il existe un mode « Fun » pour passer à l’humour.

Cette semaine, le chatbot IA le plus puissant, Grok, est lancé

J’ai eu le plaisir d’avoir un accès exclusif le mois dernier

Je l’utilise de manière obsessionnelle depuis plus de 100 heures

/blockquote>

Pour les utilisateurs de crypto, les données en temps réel signifient que Grok sera en mesure de faire des choses comme trouver les dix jetons les plus tendances de la journée ou de l’heure écoulée. Cependant, le blogueur de DeFi Research, Ignas, craint que certains robots sniperont les achats de transactions de jetons tendance, tandis que d’autres robots prendront probablement en charge les jetons pour les mettre en tendance.

« X est déjà important pour la découverte de jetons, et avec le lancement de Grok, la bulle d’écho CT peut s’aggraver », a-t-il déclaré.

Lire aussi

Caractéristiques

Le Vitalik que je connais : Dmitry Buterin

Caractéristiques

E Pour l’Estonie  : Comment les natifs du numérique créent le modèle d’une nation blockchain

All Killer No Filler AI Nouvelles

  • Le co-fondateur d’Ethereum, Vitalik Buterin, craint que l’IA puisse prendre le relais des humains en tant qu’espèce suprême de la planète, mais il croit avec optimisme que l’utilisation d’interfaces cerveau/ordinateur pourrait tenir les humains au courant
  • Microsoft met à niveau son outil Copilot pour exécuter GPT-4 Turbo, ce qui améliorera les performances et permettra aux utilisateurs de saisir jusqu’à 300 pages
  • Amazon a annoncé sa propre version de Copilot appelée Q
  • Bing a dit aux utilisateurs que l’Australie n’existe pas à cause d’un gag de longue date sur Reddit et pense que l’existence des oiseaux est un sujet de débat en raison de la campagne blague Birds Aren’t Real
  • Le fonds spéculatif Bridgewater lancera l’année prochaine un fonds qui utilise l’apprentissage automatique et l’IA pour analyser et prédire les événements économiques mondiaux et investir les fonds des clients. À ce jour, les fonds basés sur l’IA ont enregistré des rendements décevants.
  • Un groupe de chercheurs universitaires a appris à une IA à parcourir le site Web d’Amazon et à acheter des produits. Le MM-Navigator a reçu un budget et a été invité à acheter un mousseur à lait
  • Photos stupides de l’IA de la semaine

    puis de demander à l’IA de la rendre davantage  : ainsi ou une oie pourrait devenir progressivement plus stupide.

    Un doomer de l’IA au niveau un Le désespoir à propos de la superintelligence grandit. AI doomer commence à craquer (X, venturetwins) Un trader de crypto achète un peu trop de moniteurs – cela reste assez réaliste. Le commerçant de crypto devient maximaliste à part entière après avoir perdu sa pile sur les altcoins. Le commerçant a des éphines. Bitcoin est un essaim de cyber-frelons au service de la déesse de la sagesse. L’utilisateur rend l’oie encore plus idiote. Les créateurs d’utilisateurs sont extrêmement stupides. ChatGPT pense que l’utilisateur est une oie idiote (Garrett Scott)

    S’abonner

    Andrew Fenton

    Il a travaillé comme écrivain de divertissement national pour News Corp Australia, sur SA Weekend en tant que journaliste de cinéma et au Melbourne Weekly.

    Suivez l’auteur @andrewfenton