Utama Inovasi Google AI Sekarang Memungkinkan Pengguna Menerjemahkan Teks Secara Instan dalam 27 Bahasa Dengan Kamera Ponsel

Google AI Sekarang Memungkinkan Pengguna Menerjemahkan Teks Secara Instan dalam 27 Bahasa Dengan Kamera Ponsel

Film Apa Yang Harus Dilihat?
 
(Gif: Google)

(Gif: Google)



Berkat kecerdasan buatan, bepergian ke luar negeri tidak pernah semudah ini.

Aplikasi Google Terjemahan memungkinkan pengguna menerjemahkan teks secara instan. Di aplikasi, cukup arahkan kamera Anda ke teks yang ingin Anda terjemahkan dan Anda akan melihatnya berubah menjadi bahasa yang Anda inginkan secara langsung, tepat di depan mata Anda—tidak perlu koneksi internet atau data ponsel. Fitur praktis ini telah tersedia untuk beberapa waktu, tetapi hanya kompatibel dengan tujuh bahasa. Sekarang , berkat pembelajaran mesin, Google telah meningkatkan versi aplikasi untuk menerjemahkan 27 bahasa secara instan.

Jadi, lain kali Anda berada di Praha dan tidak dapat membaca menu, kami mendukung Anda, Otavio Good, insinyur perangkat lunak di Google, menulis tentang penelitian perusahaan Blog .

Google juga baru saja menggunakan AI untuk memotong kesalahan pengenalan suara mereka menjadi dua.

Mulai hari ini, selain menerjemahkan antara bahasa Inggris, Prancis, Jerman, Italia, Portugis, Rusia, dan Spanyol, 20 bahasa berikut juga dapat diterjemahkan secara waktu nyata: Bulgaria, Catalan, Kroasia, Ceko, Denmark, Belanda, Filipina, Finlandia, Hungaria, Indonesia, Lithuania, Norwegia, Polandia, Rumania, Slovakia, Swedia, Turki, dan Ukraina. Dan jika Anda memilih untuk mengambil gambar daripada menonton terjemahan teks secara langsung, total 37 bahasa didukung.

Jadi bagaimana Google dapat meningkatkan jumlah bahasa yang tersedia? Mereka pertama kali memperoleh Word Lens, yang sebelumnya merupakan aplikasi terjemahan augmented reality, dan menggunakan pembelajaran mesin dan jaringan saraf convolutional untuk meningkatkan kemampuan aplikasi. Kemajuan dalam pengenalan gambar adalah kuncinya.

Lima tahun lalu, jika Anda memberi komputer gambar kucing atau anjing, komputer akan kesulitan membedakan yang mana. Berkat jaringan saraf convolutional, komputer tidak hanya dapat membedakan antara kucing dan anjing, mereka bahkan dapat mengenali ras anjing yang berbeda, kata Good. Ya, mereka bagus untuk lebih dari sekedar seni trippy —jika Anda menerjemahkan menu asing atau masuk dengan versi terbaru aplikasi Google Terjemahan, Anda sekarang menggunakan jaring saraf yang dalam.

Selangkah demi selangkah

Pertama , Terjemahan harus menyingkirkan kekacauan latar belakang dan menemukan teks. Ketika menemukan gumpalan piksel dengan warna yang sama, itu menentukan itu adalah huruf. Dan ketika gumpalan-gumpalan itu berdekatan satu sama lain, ia memahami bahwa itu adalah garis yang berkelanjutan untuk dibaca.

Lanjut, aplikasi harus mengenali setiap huruf. Di sinilah pembelajaran yang mendalam masuk.

Kami menggunakan jaringan saraf convolutional, melatihnya pada huruf dan non-huruf sehingga dapat mempelajari seperti apa bentuk huruf yang berbeda, membaca posting blog.

Para peneliti harus melatih perangkat lunak menggunakan tidak hanya huruf yang tampak bersih, tetapi juga huruf yang kotor. Surat-surat di dunia nyata dirusak oleh pantulan, kotoran, noda, dan segala macam keanehan, tulis Mr. Good. Jadi kami membangun pembuat surat kami untuk membuat semua jenis kotoran palsu untuk secara meyakinkan meniru kebisingan dunia nyata — pantulan palsu, noda palsu, keanehan palsu di sekitar. Beberapa dari

Beberapa huruf kotor digunakan untuk pelatihan. (Foto: Google)








Itu ketiga langkahnya adalah mencari huruf yang dikenali dalam kamus untuk mendapatkan terjemahannya. Dan untuk upaya tambahan pada akurasi, pencarian kamus adalah perkiraan jika S salah dibaca sebagai 5.

Akhirnya, teks terjemahan ditampilkan di atas teks asli dengan gaya yang sama.

Kita bisa melakukan ini karena kita sudah menemukan dan membaca huruf-huruf pada gambar, jadi kita tahu persis di mana mereka berada. Kita bisa melihat warna di sekitar huruf dan menggunakannya untuk menghapus huruf aslinya. Dan kemudian kita dapat menggambar terjemahan di atas menggunakan warna latar depan asli, posting blog berbunyi.

Agar seefisien mungkin dan memungkinkan semua langkah ini diselesaikan secara real time tanpa internet atau koneksi data, tim Google mengembangkan jaringan saraf yang sangat kecil dengan batas atas pada kepadatan informasi yang dapat ditanganinya. Karena mereka menghasilkan data pelatihan mereka sendiri, penting untuk memasukkan data yang benar tetapi tidak ada tambahan sehingga jaringan saraf tidak menggunakan terlalu banyak kepadatan informasinya pada hal-hal yang tidak penting. Contohnya adalah bagaimana ia perlu mengenali huruf dengan sedikit rotasi, tetapi tidak terlalu banyak.

Pada akhirnya, pengguna memiliki 20 bahasa lebih banyak tetapi kecepatan cepat yang sama.

LIHAT JUGA: Tim AI Google Memberi Kami Lowdown pada Penelitian Pembelajaran Mesin Mereka

Artikel Yang Mungkin Anda Sukai :