dc.description.abstract | Στον 21ο αιώνα που ζούμε μπορούμε να μιλάμε πλέον για μία ψηφιακή πραγματικότητα. Τα δεδομένα των χρηστών εμπορευματοποιούνται όλο και περισσότερο από τις επιχειρήσεις με σκοπό τη «σκιαγράφηση» των καταναλωτών και την χρήση αυτών των δεδομένων μετέπειτα για πιο στοχευμένη προώθηση των υπηρεσιών. Ωστόσο, με την ανεξέλεγκτα πια ταχέως εξέλιξη της τεχνολογίας, οι χρήστες βρίσκονται εκτεθειμένοι σε μία ανταλλαγή προσωπικών πληροφοριών, δίχως ανθρώπινη συγκατάθεση με τη χρήση των νέων συστημάτων τεχνητής νοημοσύνης. Η συγκεκριμένη μελέτη θα χρησιμοποιήσει δεδομένα που συλλέχθηκαν ανώνυμα από 208 ερωτηθέντες, δίνοντας απαντήσεις στα ερωτήματα που ζητούνται. Με αυτόν τον τρόπο θα διαπιστωθεί πως βλέπει ένα μικρό μέρος του πληθυσμού αυτό το ζήτημα. Σημαντικό εύρημα από την έρευνα θεωρείται ότι η πλειονότητα των ερωτηθέντων υποστηρίζει ότι ο σημαντικότερος κίνδυνος που επιφέρει η τεχνητή νοημοσύνη είναι η έλλειψη της ηθικής. Παράλληλα, ένα μεγάλο ποσοστό συμφωνεί ότι η τεχνητή νοημοσύνη έχει ωφελήσει την ανθρωπότητα όσον αφορά τις προβλέψεις φυσικών καταστροφών.------------------------------------------------ In the 21st century we can now talk about a digital reality. User data is increasingly being commercialised by businesses to 'profile' consumers and then use this data for more targeted marketing of services. However, with the now uncontrolled rapid development of technology, users are exposed to an exchange of personal information without human consent using new artificial intelligence systems. This study will use data collected anonymously from 208 respondents, providing answers to the questions asked. In this way it will be possible to see how a small part of the population views this issue. An important finding from the survey is considered to be that the majority of the respondents support that the most important risk brought about by artificial intelligence is the lack of ethics. At the same time, a large percentage agrees that AI has benefited humanity in terms of predicting natural disasters. | en_US |