Living With Artificial Intelligence – Cambridge IELTS 18, Test 2

Living With Artificial Intelligence – Cambridge IELTS 18, Test 2

Sống chung với trí tuệ nhân tạo

Powerful artificial intelligence (AI) needs to be reliably aligned with human values, but
does this mean AI will eventually have to police those values?

This has been the decade of AI, with one astonishing feat after another.

Đây là thập kỷ của AI, với hết kỳ tích đáng kinh ngạc này đến kỳ tích khác.

A chess-playing AI that can defeat not only all human chess players but also all previous human-programmed chess machines, after learning the game in just four hours?

Một trí tuệ nhân tạo chơi cờ vua có thể đánh bại không chỉ tất cả những người chơi cờ của con người mà còn tất cả các máy chơi cờ do con người lập trình trước đó, sau khi học trò chơi chỉ trong bốn giờ?

That’s yesterday’s news, what’s next?

Đó là tin tức của ngày hôm qua, tiếp theo là gì?

True, these prodigious accomplishments are all in so-called narrow AI, where machines perform highly specialized tasks.

Đúng vậy, những thành tựu phi thường này đều nằm trong cái gọi là AI hẹp, nơi máy móc thực hiện các nhiệm vụ chuyên môn hóa cao.

But many experts believe this restriction is very temporary.

Nhưng nhiều chuyên gia tin rằng hạn chế này là rất tạm thời.

By mid-century, we may have artificial general intelligence (AGI) – machines that can achieve human-level performance on the full range of tasks that we ourselves can tackle.

Vào giữa thế kỷ này, chúng ta có thể có trí tuệ tổng quát nhân tạo (AGI) – những cỗ máy có thể đạt được hiệu suất ở cấp độ con người trong tất cả các nhiệm vụ mà chính chúng ta có thể giải quyết.

If so, there’s little reason to think it will stop there. Machines will be free of many of the physical constraints on human intelligence.

Nếu vậy, có rất ít lý do để nghĩ rằng nó sẽ dừng lại ở đó. Máy móc sẽ thoát khỏi nhiều hạn chế vật lý đối với trí thông minh của con người.

Our brains run at slow biochemical processing speeds on the power of a light bulb, and their size is restricted by the dimensions of the human birth canal.

Bộ não của chúng ta chạy ở tốc độ xử lý sinh hóa chậm nhờ năng lượng của bóng đèn và kích thước của chúng bị hạn chế bởi kích thước của ống sinh con người.

It is remarkable what they accomplish, given these handicaps.

Điều đáng chú ý là những gì họ đạt được, với những bất lợi này.

But they may be as far from the physical limits of thought as our eyes are from the incredibly powerful Webb Space Telescope.

Nhưng chúng có thể cách xa giới hạn vật lý của suy nghĩ như mắt chúng ta nhìn từ Kính viễn vọng Không gian Webb cực mạnh.

Once machines are better than us at designing even smarter machines, progress towards these limits could accelerate.

Một khi máy móc tốt hơn chúng ta trong việc thiết kế những cỗ máy thậm chí còn thông minh hơn, tiến trình hướng tới những giới hạn này có thể tăng tốc.

What would this mean for us?

Điều này có ý nghĩa gì đối với chúng ta?

Could we ensure a safe and worthwhile coexistence with such machines?

Chúng ta có thể đảm bảo cùng tồn tại an toàn và đáng giá với những cỗ máy như vậy không?

On the plus side, AI is already useful and profitable for many things, and super AI might be expected to be super useful and super profitable.

Về mặt tích cực, AI đã hữu ích và mang lại lợi nhuận cho nhiều thứ, và siêu AI có thể được kỳ vọng là siêu hữu ích và siêu lợi nhuận.

But the more powerful AI becomes, the more important it will be to specify its goals with great care.

Nhưng AI càng trở nên mạnh mẽ thì việc xác định mục tiêu của nó càng trở nên quan trọng hơn.

Folklore is full of tales of people who ask for the wrong thing, with disastrous consequences– King Midas, for example, might have wished that everything he touched turned to gold, but didn’t really intend this to apply to his breakfast.

Văn hóa dân gian chứa đầy những câu chuyện kể về những người yêu cầu nhầm thứ, dẫn đến hậu quả tai hại – chẳng hạn như Vua Midas, có thể đã ước rằng mọi thứ mình chạm vào đều biến thành vàng, nhưng thực sự không có ý định áp dụng điều này cho bữa sáng của mình.

So we need to create powerful AI machines that are ‘human-friendly’- that have goals reliably aligned with our own values.

Vì vậy, chúng ta cần tạo ra những cỗ máy AI mạnh mẽ ‘thân thiện với con người’ – có mục tiêu phù hợp một cách đáng tin cậy với các giá trị của chính chúng ta.

One thing that makes this task difficult is that we are far from reliably human-friendly ourselves.

Một điều khiến nhiệm vụ này trở nên khó khăn là bản thân chúng ta còn lâu mới thân thiện với con người một cách đáng tin cậy.

We do many terrible things to each other and to many other creatures with whom we share the planet.

Chúng ta làm nhiều điều tồi tệ với nhau và với nhiều sinh vật khác mà chúng ta chia sẻ hành tinh.

If superintendent machines don’t do a lot better than us, we’ll be in deep trouble.

Nếu máy móc giám sát không làm tốt hơn chúng ta nhiều, chúng ta sẽ gặp rắc rối to.

We’ll have powerful new intelligence amplifying the dark sides of our own fallible natures.

Chúng ta sẽ có trí thông minh mới mạnh mẽ khuếch đại những mặt tối trong bản chất dễ sai lầm của chính chúng ta.

For safety’s sake, then, we want the machines to be ethically as well as cognitively superhuman.

Do đó, vì lợi ích an toàn, chúng tôi muốn máy móc phải siêu phàm về mặt đạo đức cũng như nhận thức.

We want them to aim for the moral high ground, not for the troughs in which many of us spend some of our time. Luckily they’ll be smart enough for the job.

Chúng tôi muốn họ nhắm đến nền tảng đạo đức cao, không phải những điều tồi tệ mà nhiều người trong chúng ta dành một phần thời gian của mình. May mắn thay, họ sẽ đủ thông minh cho công việc.

If there are routes to the moral high ground, they’ll be better than us at finding them and steering us in the right direction.

Nếu có những con đường dẫn đến nền tảng đạo đức cao, thì họ sẽ giỏi hơn chúng ta trong việc tìm ra chúng và hướng chúng ta đi đúng hướng.

However, there are two big problems with this utopian vision. One is how we get the machines started on the journey, the other is what it would mean to reach this destination.

Tuy nhiên, có hai vấn đề lớn với tầm nhìn không tưởng này. Một là cách chúng ta khởi động cỗ máy trên hành trình, hai là ý nghĩa của việc đến đích này.

The ‘getting started’ problem is that we need to tell the machines what they’re looking for with sufficient clarity so that we can be confident they will find it – whatever ‘it’ actually turns out to be.

Vấn đề ‘bắt đầu’ là chúng ta cần nói cho máy móc biết chúng đang tìm kiếm cái gì một cách rõ ràng để chúng ta có thể tin tưởng rằng chúng sẽ tìm thấy nó – bất kể ‘nó’ thực sự là gì.

This won’t be easy, given that we are tribal creatures and conflicted about our ideals ourselves.

Điều này sẽ không dễ dàng, vì chúng ta là những sinh vật bộ lạc và bản thân mâu thuẫn về những lý tưởng.

We often ignore the suffering of strangers, and even contribute to it, at least indirectly. How then, do we point machines in the direction of something better?

Chúng ta thường bỏ qua sự đau khổ của những người xa lạ, và thậm chí góp phần vào nó, ít nhất là gián tiếp. Sau đó, làm thế nào để chúng ta hướng máy móc theo hướng tốt hơn?

As for the ‘destination’ problem, we might, by putting ourselves in the hands of these moral guides and gatekeepers, be sacrificing our own autonomy – an important part of what makes us human.

Đối với vấn đề ‘đích đến’, bằng cách đặt mình vào tay của những người hướng dẫn đạo đức và người gác cổng này, chúng ta có thể đang hy sinh quyền tự chủ của chính mình – một phần quan trọng tạo nên con người chúng ta.

Machines who are better than us at sticking to the moral high ground may be expected to discourage some of the lapses we presently take for granted.

Những cỗ máy giỏi hơn chúng ta trong việc bám sát nền tảng đạo đức cao có thể được kỳ vọng sẽ làm nản lòng một số sai sót mà chúng ta hiện đang coi là điều hiển nhiên.

We might lose our freedom to discriminate in favor of our own communities, for example.

Chẳng hạn, chúng ta có thể mất quyền tự do phân biệt đối xử vì lợi ích của cộng đồng của chính mình.

Loss of freedom to behave badly isn’t always a bad thing, of course: denying ourselves the freedom to put children to work in factories, or to smoke in restaurants are signs of progress.

Tất nhiên, mất tự do để hành xử xấu không phải lúc nào cũng là điều xấu: từ chối cho chúng ta quyền tự do đưa con cái vào làm việc trong nhà máy hoặc hút thuốc trong nhà hàng là những dấu hiệu của sự tiến bộ.

But are we ready for ethical silicon police limiting our options?

Nhưng chúng ta đã sẵn sàng cho việc cảnh sát đạo đức silicon giới hạn các lựa chọn của chúng ta chưa?

They might be so good at doing it that we won’t notice them, but few of us are likely to welcome such a future.

Họ có thể làm việc đó giỏi đến mức chúng ta sẽ không chú ý đến họ; nhưng ít người trong chúng ta có khả năng chào đón một tương lai như vậy.

These issues might seem far-fetched, but they are to some extent already here.

Những vấn đề này có vẻ xa vời, nhưng ở một mức độ nào đó chúng đã có ở đây.

AI already has some input into how resources are used in our National Health Service (NHS) here in the UK, for example.

Chẳng hạn, AI đã có một số thông tin đầu vào về cách sử dụng tài nguyên trong Dịch vụ Y tế Quốc gia (NHS) của chúng tôi tại Vương quốc Anh.

If it was given a greater role, it might do so much more efficiently than humans can manage, and act in the interests of taxpayers and those who use the health system.

Nếu nó được trao một vai trò lớn hơn, nó có thể hoạt động hiệu quả hơn rất nhiều so với khả năng quản lý của con người và hành động vì lợi ích của người nộp thuế và những người sử dụng hệ thống y tế.

However, we’d be depriving some humans (e.g. senior doctors) of the control they presently enjoy.

Tuy nhiên, chúng tôi sẽ tước/ mất/ không có quyền kiểm soát của một số người (ví dụ: bác sĩ cấp cao) mà họ hiện đang được hưởng.

Since we’d want to ensure that people are treated equally and that policies are fair, the goals of AI would need to be specified correctly.

Vì chúng tôi muốn đảm bảo rằng mọi người được đối xử bình đẳng và các chính sách công bằng, nên các mục tiêu của AI cần phải được xác định chính xác.

We have a new powerful technology to deal with- itself, literally, a new way of thinking.

Chúng ta có một công nghệ mạnh mẽ mới để đối phó với chính nó, theo đúng nghĩa đen, một lối suy nghĩ mới.

For our own safety, we need to point these new thinkers in the right direction and get them to act well for us.

Vì sự an toàn của chính chúng ta, chúng ta cần chỉ cho những người có tư duy mới này đi đúng hướng và khiến họ hành động tốt cho chúng ta.

It is not yet clear whether this is possible, but if it is, it will require a cooperative spirit, and a willingness to set aside self-interest.

 Vẫn chưa rõ liệu điều này có khả thi hay không, nhưng nếu có thì sẽ đòi hỏi tinh thần hợp tác và sẵn sàng gạt bỏ tư lợi sang một bên.

Both general intelligence and moral reasoning are often thought to be uniquely human capacities.

Cả trí thông minh chung và lý luận đạo đức thường được cho là năng lực duy nhất của con người.

But safety seems to require that we think of them as a package: if we are to give general intelligence to machines, we’ll need to give them moral authority, too.

Nhưng sự an toàn dường như đòi hỏi chúng ta phải coi chúng như một gói: nếu chúng ta cung cấp trí thông minh chung cho máy móc, chúng ta cũng cần trao cho chúng thẩm quyền đạo đức.

And where exactly would that leave human beings? All the more reason to think about the destination now, and to be careful about what we wish for.

Và chính xác thì điều đó sẽ để lại con người ở đâu? Càng có thêm lý do để suy nghĩ về điểm đến ngay bây giờ và cẩn thận về những gì chúng ta mong muốn.

 

Học thêm các bài Cambridge IELTS 18 mới nhất 👇👇👇

Stonehenge – Cambridge IELTS 18, Test 2

Conquering Earth’s Space Junk Problem