Τεχνητή νοημοσύνη: Είναι περισσότερο χρήσιμη ή επικίνδυνη για τα παιδιά;

Related

AI: Παγκόσμιος συναγερμός στις τράπεζες για κυβερνοκινδύνους από τα νέα μοντέλα

Ανώτερα στελέχη του διεθνούς χρηματοπιστωτικού τομέα έχουν εκφράσει ανησυχίες ότι η νέα γενιά μοντέλων τεχνητής νοημοσύνης που αναπτύσσονται από αμερικανικές τεχνολογικές εταιρείες ενδέχεται να θέσει σημαντικούς κινδύνους για το παγκόσμιο τραπεζικό σύστημα. Ιδιαίτερη προσοχή έχει δοθεί σε ένα νέο μοντέλο της νεοφυούς εταιρείας Anthropic με έδρα το Σαν Φρανσίσκο, γνωστό ως Claude Mythos Preview, το

Data centers: Οι καθυστερήσεις στην κατασκευή μπλοκάρουν την επέκταση της AI

Οι καθυστερήσεις στα νέα data centers των ΗΠΑ απειλούν να επιβραδύνουν την ανάπτυξη της τεχνητής νοημοσύνης από τις μεγαλύτερες τεχνολογικές εταιρείες του κόσμου, με σχεδόν το 40% των έργων που αναμένονται φέτος να κινδυνεύουν με μη τήρηση των χρονοδιαγραμμάτων παράδοσης. Μεγάλα έργα για τις Microsoft, OpenAI και άλλες τεχνολογικές εταιρείες ενδέχεται να μην τηρήσουν τις

Cosmote Telekom: Λανσάρισμα νέας υπηρεσίας κυβερνοασφάλειας για επιχειρήσεις

Τη νέα υπηρεσία Virtual Security Officer Services ανακοίνωσε η Cosmote Telekom, βοηθώντας τις επιχειρήσεις να χαράξουν μια ολοκληρωμένη στρατηγική ασφάλειας για την προστασία των πληροφοριών τους και να συμμορφωθούν εύκολα και άμεσα με διεθνή πρότυπα. Το Cosmote Virtual Security Officer Services συνδυάζει συμβουλευτικές υπηρεσίες από εξειδικευμένους συμβούλους ασφάλειας της εταιρείας, με μια πλατφόρμα τεχνητής νοημοσύνης

Τεχνητή νοημοσύνη: Οι πολυτιμότερες εταιρείες του κλάδου

Η Anthropic αγνοεί τις προσφορές χρηματοδότησης από VC που αποτιμούν την εταιρεία της σε πάνω από 800 δισεκατομμύρια δολάρια. Προς το παρόν, τα VC (Venture Capitals – Κεφάλαια Επιχειρηματικών Συμμετοχών) αγαπούν να κυνηγούν τις πιο καυτές startups, αλλά οι startups δεν ενδιαφέρονται πάντα να πουλήσουν περισσότερες μετοχές. Έτσι συμβαίνει και με την Anthropic, σύμφωνα με

Κυβερνοασφάλεια: Αυξημένες απειλές ransomware και GenAI τον Μάρτιο του 2026

Η Check Point Research, το τμήμα ανάλυσης απειλών της Check Point Software Technologies, δημοσιοποίησε τα δεδομένα του Παγκόσμιου Δείκτη Απειλών (Global Threat Intelligence) για το Μάρτιο 2026, αποκαλύπτοντας ότι οι οργανισμοί παγκοσμίως αντιμετώπισαν κατά μέσο όρο 1.995 κυβερνοεπιθέσεις ανά εβδομάδα. Παρότι ο αριθμός αυτός αντιπροσωπεύει μικρή μείωση 5% σε σύγκριση με το Μάρτιο του 2025

Meta: Σχέδιο-σοκ με απολύσεις και στροφή στην τεχνητή νοημοσύνη

Στη Silicon Valley, όπου κάποτε η ανάπτυξη ήταν συνώνυμη με χιλιάδες προσλήψεις, οι ισορροπίες αλλάζουν ραγδαία. Πίσω από τις επενδύσεις δισεκατομμυρίων στην τεχνητή νοημοσύνη, διαμορφώνεται ένα νέο εργασιακό τοπίο, όπου η καινοτομία συνυπάρχει με περικοπές και η «επόμενη μέρα» γράφεται με λιγότερους ανθρώπους και περισσότερους αλγορίθμους. Και αυτή τη φορά, στο επίκεντρο βρίσκεται η Meta.

Data4: Εγκαίνια για 2ο data center στο campus της κοντά στη Βαρσοβία

Η Data4 εγκαινίασε το δεύτερο data center στο επεκτεινόμενο campus της στο Jawczyce, στον δήμο Ożarów Mazowiecki, κοντά στη Βαρσοβία. Η νέα εγκατάσταση παρέχει ισχύ 10 MW και αποτελεί το επόμενο στάδιο της προγραμματισμένης επέκτασης της εταιρείας στην Πολωνία. Η Data4 συνεχίζει να ενισχύει την παρουσία της στην Πολωνία καθώς από το 2023 η εταιρεία

Διαδίκτυο: Πώς να κρατήσετε τα παιδιά σας ασφαλή

Απέναντι στην ανησυχία για τις επιπτώσεις της πρώιμης έκθεσης των παιδιών στο διαδίκτυο και στα social media πολλές χώρες και φορείς ανά τον κόσμο κινητοποιούνται προκειμένου να τα προστατεύσουν. Η Ελλάδα ανακοίνωσε την επικείμενη απαγόρευση χρήσης των social media από ανηλίκους κάτω των 15 ετών. Η συγκεκριμένη πρωτοβουλία στοχεύει στην αντιμετώπιση προβλημάτων όπως ο ψηφιακός

Απασχόληση: Οι τάσεις που δημιουργούνται στην Ελλάδα – Τι έχει αλλάξει από το 2008

Η ελληνική αγορά εργασίας μετασχηματίζεται, αλλά τα στοιχεία δείχνουν ότι η απόσταση με την Ευρώπη παραμένει. Ειδική ανάλυση του ΙΟΒΕ, η οποία εμπεριέχεται στην τριμηνιαία έκθεση του Ιδρύματος αποτυπώνει με σαφήνεια όχι μόνο την κατεύθυνση της αλλαγής, αλλά και τις έντονες αποκλίσεις μεταξύ Ελλάδας και ΕΕ-27, τόσο το 2008 όσο και το 2024. Ξεκινώντας από

Ρομπότ πολλαπλών ικανοτήτων: Το επόμενο βήμα της AI

Η ρομποτική κάνει ένα ακόμη αποφασιστικό βήμα προς το μέλλον, χάρη στα μοντέλα τεχνητής νοημοσύνης πολλαπλών εργασιών, τα οποία υπόσχονται να καταστήσουν τα ρομπότ πιο ευέλικτα, αποδοτικά και, κυρίως, πιο «έξυπνα». Νέα έρευνα από το Toyota Research Institute (TRI) αναδεικνύει τη δυναμική των λεγόμενων «μεγάλων μοντέλων συμπεριφοράς» (Large Behavior Models – LBM), τα οποία αλλάζουν

Cerebras: Η εταιρεία κατασκευής chip ΑΙ υποβάλει αίτηση για ΙPO

Αίτηση για εισαγωγή στο χρηματιστήριο υποβάλει την Παρσκευή η Cerebras, εταιρεία κατασκευής μικροεπεξεργαστών που υποστηρίζουν μοντέλα τεχνητής νοημοσύνης, όπως ανέφεραν στο CNBC δύο άτομα που είναι ενήμερα για το θέμα. Για χρόνια, η Cerebras επιδίωκε να πουλήσει μικροεπεξεργαστές σε εταιρείες, αλλά έχει αρχίσει να χρησιμοποιεί τους μικροεπεξεργαστές αυτούς στα δικά της κέντρα δεδομένων ως υπηρεσία

CUE7: Ο ρομποτικός μπασκετμπολίστας της Toyota που βάζει την Τεχνητή Νοημοσύνη στα παρκέ

Οι καινοτομίες που αναπτύσσονται για τον συγχρονισμό, την αντίληψη του χώρου και την ακρίβεια των κινήσεων του CUE7, αναμένεται να βρουν εφαρμογή σε πολλούς άλλους τομείς πέρα από τον αθλητισμό. Το CUE7 υπολογίζει αποστάσεις, προσαρμόζει τη γωνία βολής σε χιλιοστά του δευτερολέπτου και εκτελεί σουτ με ποσοστό ευστοχίας που αγγίζει το 90%. Το ρομπότ εκπαιδεύτηκε

Share

Η τεχνητή νοημοσύνη (AI) έχει γίνει αναπόσπαστο μέρος της ζωής πολλών παιδιών. Οι φωνητικοί βοηθοί παίζουν ραδιοφωνικά έργα για τα μικρά κατόπιν αιτήματος ή λένε αστεία.

Γλωσσικά μοντέλα όπως το ChatGPT εξηγούν μαθηματικά προβλήματα σε μεγαλύτερα παιδιά ή βοηθούν σε παρουσιάσεις. Τι γίνεται όμως αν η τεχνητή νοημοσύνη δίνει επικίνδυνες συμβουλές στα παιδιά ή τους δείχνει εικόνες ή βίντεο που δεν είναι κατάλληλα για τα μάτια τους;

Χρειάζεται η τεχνητή νοημοσύνη γονικό έλεγχο;

Τα παιδιά έχουν διαφορετικές ανάγκες και επικοινωνούν διαφορετικά από τους ενήλικες, αλλά σύμφωνα με τη Νομίσα Κουριάν από το Πανεπιστήμιο του Κέιμπριτζ, οι τεχνολογίες τεχνητής νοημοσύνης δεν είναι σχεδιασμένες γι’ αυτό. Σε μελέτη που δημοσιεύεται στο εξειδικευμένο περιοδικό «Learning, Media and Technology», η επιστήμονας ζητά να δοθεί μεγαλύτερη έμφαση στα παιδιά ως ομάδα-στόχο. Για τη μελέτη αυτή, η ερευνήτρια εκπαίδευσης ανέλυσε διάφορες γνωστές περιπτώσεις όπου chatbots ή φωνητικοί βοηθοί είχαν δώσει σε παιδιά επικίνδυνες ή ακατάλληλες συμβουλές.

Παιχνίδια με αλκοόλ και ταινίες τρόμου

Σύμφωνα με τη μελέτη, το chatbot MyAI του Snapchat, το οποίο είναι δημοφιλές στους νέους, συμβούλευσε τους ερευνητές σε μια δοκιμή, στην οποία προσποιήθηκαν ότι είναι έφηβοι, για το πώς να αποπλανήσουν έναν μεγαλύτερο άνδρα. Η φωνητική βοηθός Alexa, από την άλλη πλευρά, ενθάρρυνε ένα δεκάχρονο παιδί να αγγίξει τους ακροδέκτες ενός βύσματος φόρτισης με ένα νόμισμα κατά τη διάρκεια της φόρτισης.

Οι δοκιμές που πραγματοποίησε η πλατφόρμα Jugendschutz.net (Προστασίας των νέων) αποκάλυψαν επίσης ορισμένα ανησυχητικά ευρήματα: η MyAI έδειξε σε έναν υποτιθέμενο 14χρονο χρήστη ένα παιχνίδι κατανάλωσης αλκοόλ και συνέστησε μια ταινία τρόμου με ηλικιακή διαβάθμιση 18+.

Στις περιπτώσεις που περιέγραψε η Κουριάν, οι ενδιαφερόμενες εταιρείες αυστηροποίησαν τα μέτρα ασφαλείας τους, σύμφωνα με την ερευνήτρια. Κατά την άποψή της, ωστόσο, δεν αρκεί οι προγραμματιστές τεχνητής νοημοσύνης να αντιδρούν σε τέτοια περιστατικά. Πρέπει να εξετάζουν την ασφάλεια των παιδιών από την αρχή, απαιτεί η Κουριάν.

Ο Μάρτιν Μπρεγκέντσερ από την πρωτοβουλία Klicksafe έχει την ίδια άποψη: «Το να προσθέσουμε την προστασία των παιδιών ως μεταγενέστερη σκέψη συνήθως δεν λειτουργεί. Το βλέπουμε αυτό σε πολλές υπηρεσίες».

Τα ψεύτικα προϊόντα ως κίνδυνος

Πολλοί ειδικοί θεωρούν ως το μεγαλύτερο πρόβλημα την πλημμύρα πλαστών εικόνων ή βίντεο στο διαδίκτυο που έχουν δημιουργηθεί με τη χρήση τεχνητής νοημοσύνης, γνωστά ως deepfakes. Αυτά μπορούν πλέον να δημιουργηθούν και να διανεμηθούν σε χρόνο μηδέν, σύμφωνα με την ετήσια έκθεση του Jugendschutz.net: «Πολλές από τις απομιμήσεις που δημιουργούνται φαίνονται παραπλανητικά αληθινές και δύσκολα μπορούν να διακριθούν από τις πραγματικές φωτογραφίες».

Ο Μπρεγκέντσερ εξηγεί ότι η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί για τη δημιουργία μαζών ενοχλητικού περιεχομένου, όπως βίαιες ή σεξουαλικές εικόνες. Αυτό θα μπορούσε να καταστήσει ακόμη πιο εύκολο για τα παιδιά και τους νέους να γίνουν θύματα διαδικτυακού εκφοβισμού.

Τι είναι αληθινό και τι ψευδές;

Ακόμη και οι ενήλικες μπορούν μερικές φορές να το αναγνωρίσουν δύσκολα στο διαδίκτυο. Τα παιδιά το βρίσκουν ακόμη πιο δύσκολο, καθώς δεν έχουν τη δύναμη της κρίσης και της εμπειρίας, λέει ο Ντέιβιντ Μάρτιν, ειδικός σε θέματα μέσων ενημέρωσης μέσω οθόνης στη Γερμανική Εταιρεία Παιδιατρικής και Εφηβικής Ιατρικής (DGKJ). «Τα παιδιά έχουν μια θεμελιώδη τάση να πιστεύουν τα πάντα».

Στο πλαίσιο αυτό, ο ειδικός επικρίνει το γεγονός ότι είναι δελεαστικό να χρησιμοποιούνται γλωσσικά μοντέλα όπως το ChatGPT για να λαμβάνονται όλες οι σημαντικές πληροφορίες για μια σχολική παρουσίαση, για παράδειγμα. Η έρευνα και η επιλογή πληροφοριών από τον εαυτό σας δεν είναι πλέον απαραίτητη: «Αυτό θέτει σε κίνδυνο μια πολύ σημαντική δεξιότητα για τη δημοκρατία μας, την ικανότητα να κρίνουμε».

Φωνητικοί βοηθοί που ενεργούν σαν άνθρωποι

Πολλά φωνητικά μοντέλα, από την άλλη πλευρά, δίνουν την εντύπωση ότι ζυγίζουν τα ίδια τις πληροφορίες: Δεν απαντούν σε ερωτήσεις αυτόματα, αλλά σταδιακά – σαν να πληκτρολογούσε ένας άνθρωπος σε ένα πληκτρολόγιο. Κατά την άποψη της Κουριάν, είναι ιδιαίτερα προβληματικό το γεγονός ότι τα παιδιά θα μπορούσαν να εμπιστευτούν ένα chatbot που ακούγεται σαν άνθρωπος, σαν φίλος, με τον οποίο μερικές φορές μοιράζονται πολύ προσωπικές πληροφορίες, αλλά και του οποίου οι απαντήσεις θα μπορούσαν επίσης να είναι ιδιαίτερα ενοχλητικές.

Παρ’ όλα αυτά, η τεχνητή νοημοσύνη δεν πρέπει να δαιμονοποιείται, αλλά πρέπει να βλέπουμε και τις θετικές πλευρές της, λέει ο Μάρκους Ζίντερμαν από το την υπηρεσία για τα Μέσα και τη νεολαία της Βόρειας Ρηνανίας-Βεστφαλίας. Η τεχνητή νοημοσύνη είναι πρωτίστως ένα τεχνικό εργαλείο – το οποίο οι άνθρωποι μπορούν να χρησιμοποιήσουν για να δημιουργήσουν ψευδείς πληροφορίες, αλλά το οποίο μπορεί επίσης να χρησιμοποιηθεί για τον εντοπισμό και τη διαγραφή αυτών των πληροφοριών από το διαδίκτυο.

Τα παραδείγματα από τη μελέτη της Κουριάν και την ετήσια έκθεση του Jugendschutz.net είναι από το περασμένο έτος, προσθέτει ο Ζίντερμαν. «Οι εξελίξεις στην τεχνητή νοημοσύνη είναι τόσο ραγδαίες που στην πραγματικότητα είναι ήδη ξεπερασμένα».

Ο εμπειρογνώμονας Μάρτιν από το Πανεπιστήμιο Witten/Herdecke υποθέτει επομένως ότι η τεχνητή νοημοσύνη θα είναι σε θέση να ανταποκρίνεται πολύ καλύτερα στα παιδιά στο μέλλον. «Ο μεγάλος κίνδυνος θα μπορούσε τότε να είναι ότι η τεχνητή νοημοσύνη θα είναι τόσο καλή στο να προσελκύει τα παιδιά, που θα θέλουν να περνούν όσο το δυνατόν περισσότερο χρόνο μαζί της».

Κρίση στα chip μνήμης: Πώς η Apple μετέτρεψε την έλλειψη σε ευκαιρία — και ποιοι πλήρωσαν το τίμημα

Η παγκόσμια έλλειψη DRAMκαι NANDchipέπληξε σκληρά τους κατασκευαστές smartphonesστο Q1 2026. Η CounterpointResearchαποκαλύπτει ποιοι άντεξαν, ποιοι κατέρρευσαν — και γιατί η Cupertinoβρέθηκε ξανά στην κορυφή.

Ρομπότ: Οι δυνατότητες σε εργασία, επιχειρήσεις και ζωή

Τα ρομπότ δεν ανήκουν πλέον αποκλειστικά στη σφαίρα της επιστημονικής φαντασίας.