Latest News

Από τον Κώστα Σγάντζο

Οι πρώτες αντιδράσεις για την Τεχνητή Νοημοσύνη #Galactica που μπορεί να συγγράψει επιστημονικές εργασίες έρχονται από φωνές που βλέπουν τις επερχόμενες επιπλοκές στη διαδικασία του Peer Review.

Το άρθρο (στην πραγματικότητα μια σειρά από Tweets) εξετάζει τους πιθανούς κινδύνους από τη χρήση μηχανικής μάθησης για τη δημιουργία επιστημονικών εργασιών και υποστηρίζει ότι είναι απαραίτητες διασφαλίσεις για την προστασία της ακεραιότητας της επιστημονικής δημοσίευσης [1].

Βασικά συμπεράσματα: Η επιστήμη εξαρτάται από την εμπιστοσύνη του κοινού και αυτή η εμπιστοσύνη θα μπορούσε να διαβρωθεί εάν γίνει κατάχρηση της μηχανική μάθησης για τη δημιουργία ψεύτικων επιστημονικών εργασιών.

Οι συγγραφείς εργασιών που χρησιμοποιούν μηχανική μάθηση θα πρέπει να είναι ξεκάθαροι σχετικά με τη χρήση της τεχνολογίας και θα πρέπει να θεωρούνται υπεύθυνοι για την ακρίβεια των εγγράφων.

Οι εταιρείες που κυκλοφορούν εργαλεία μηχανικής εκμάθησης για επιστημονικές εργασίες θα πρέπει επίσης να κυκλοφορήσουν εργαλεία για να βοηθήσουν τους επιστημονικούς κριτές (reviewers) να διακρίνουν τις εργασίες μεταξύ πλαστών και πραγματικών.

ΥΓ:

Από την δεύτερη παράγραφο και μετά (με ελάχιστες αλλαγές μετά την Ελληνική μετάφραση) το κείμενο που διαβάσατε γράφτηκε από το πρόγραμμα Τεχνητής Νοημοσύνης (LLM) “Bearly” [2]. Δείτε το στιγμιότυπο αν δεν με πιστεύετε.

Αν δεν ήταν, τουλάχιστον τώρα, είναι φανερό πως οι ακαδημαϊκές εργασίες θα πρέπει να διαχωρίζονται σε πρό Large Language Models (LLM) και μετά LLM δημοσιεύσεις.

Πηγές:

1. https://threadreaderapp.com/thread/1594945693524938752.html

2. https://bearly.ai/

Μετάβαση στο περιεχόμενο