TRANSCRIPTEnglish

Yapay zeka bazı meslekleri tabii ki yok edecek | Grok'a kim sınır çizecek? | Ayşegül İldeniz

35m 5s4,228 words796 segmentsEnglish

FULL TRANSCRIPT

0:00

Yapay zekayı anlamamak, kullanmamak,

0:02

kariyer intiharı. Yani bu biraz böyle

0:04

işte internet kullanımını öğrenelim

0:06

falan gibi bir şey değil. Mantığını

0:08

anlamak gerekiyor. Bir call center, bir

0:11

müşteri hizmetleri, sorulan soruların

0:13

%98'i standarttır. Zaten bu standart

0:17

şeyleri son derece iyi bir şekilde bugün

0:19

üretici, yapay zeka halledebiliyor.

0:21

Halledebildiği başka bir sürü şey var.

0:23

Bu bağlamda bununla ilgili işler tabii

0:26

ki yok olacak. kısa zaman da yok olacak

0:28

ve bunları da değerlendiren, yapan

0:31

insanlara da ihtiyacımız olmayacak.

0:33

Hakaret vari

0:38

şeyler yasal olsa bile aykırı şeyler

0:42

olabilir ve bunu kim kısıtlayacak? Yani

0:44

o çizgiyi kim çizecek? Eee, Muskrock

0:48

onun en bir tarafında bulunan bir örnek.

0:52

Diğer

0:58

>> merhaba Ayşegül Denizle geleceği

1:00

konuştuğumuz videolara devam ediyoruz.

1:02

Hoş geldiniz.

1:03

>> Hoş bulduk.

1:03

>> Eee, şimdi oksijende çıkan, eee, son iki

1:07

yazınıza odaklanalım. eee bu sefer eee

1:11

yapay zekanın getireceği işsizlik

1:13

dalgası üzerine iki tane eee ciddi

1:17

uyarılar içeren aynı zamanda çözüm

1:20

önerileri de getiren eee iki yazı

1:22

yazdınız. Şimdi oradaki verilerle

1:24

başlamak istiyorum. eee iki tane CEO'nun

1:28

Antropik ve JP Morgan bunlar alanlarının

1:31

çok önemli iki şirketi. CEO'larının

1:33

yapay zeka işsizliği, yapay zeka

1:35

kaynaklı işsizlik eee uyarılarıyla

1:38

başladınız ve özellikle antropik CEO'su

1:40

Dario Amodei'nin, eee, kan banyosu

1:44

tabirini kullandığını görüyoruz. 1 yıl

1:47

arasında tüm beyaz yakalı işlerin yarısı

1:51

yok olabilir ve bunun bu da işsizliği %

1:55

10 ile 20'ye sıçratabilir. Şimdi yapay

1:58

zeka işleri elimizden alacak korkusu var

2:01

ama şimdi artık o günler mi geldi?

2:07

>> Bu konuda tartışma var. Bence geldi.

2:10

Eee, genel olarak bir işten çıkarma

2:13

akımı var. Sadece teknoloji sektöründe

2:15

yok. dünyanın farklı yerlerinde ve

2:17

teknolojiyi daha eee günlük işlerin

2:21

içinde kullanan şirketlerde de oldu bir

2:24

dökülme. İlk önce bu veriyi analiz

2:28

etmesi gereken insanlarla yavaş yavaş

2:30

başladı bu ve duyuyoruz bunu. Şimdiye

2:33

kadar anekdot yani gerçekten yüzde şu

2:36

kadar yapay zeka yüzünden çıkarıldığını

2:39

söyleyen bugüne kadar galiba Google gibi

2:43

büyük şirketler bir kısmını kabul

2:45

ediyorlar bunun ama böyle daha başka

2:48

sektörlerdeki şirketler henüz bunu kabul

2:50

etmiş değil. Eee, az bir kısmının doğru

2:54

olduğunu kabul etsek bile ki bence öyle

2:57

olmaya başladığını ben düşünüyorum. eee

3:00

özellikle de giriş seviyesindeki beyaz

3:03

yakalılar yani kariyerlerine ilk adım

3:06

atmış ve aslında hayatının geri

3:09

kalanında öğrenecekleri yetenekleri

3:12

yavaş yavaş oluşturmaya başlayan genç

3:14

insanları etkiliyor. En başta bugünlerde

3:17

bu iş bir iki makineların kolaylıkla

3:21

yapabildiği ya da yapabileceği rutin

3:24

işleri yapmaya başlıyor. Bu arada da

3:26

rutin işlerken eee uç uç bir örnek

3:30

vereceğim size. Rutin işleyince alt alta

3:32

2 + 2 + 5'i toplamaktan bahsetmiyorum.

3:36

Mesela işe alım görüşmelerini yapay

3:39

zekaya yaptırıyorlar. 10.000 kişiyi,

3:42

20.000 1000 kişiyi eee bir şekilde

3:44

görüşme yapıp onları değerlendirmeniz

3:46

gerekiyor. Ya da size gelen çok ciddi

3:49

miktarda yüzlerce binlerce eee CV'yi

3:53

okuyup özgeçmişi seçim yapmanız

3:56

gerekiyor ve bunları çok hızlı bir

3:58

şekilde yapay zekayla ilkeleme dediğimiz

4:00

yani en eee sizin kriterinize uygun

4:03

insanları seçme aşamasını yapay zekaya

4:06

büyük şirketler bırakmaya başladılar. Bu

4:09

anlamda bu ne anlama geliyor? İnsan

4:11

kaynaklarında

4:12

>> Evet. İK departmanının derhal küçülmesi

4:15

ya da muhasebede de aynı şey. Yani eee

4:17

çeşitli analizleri, veri analizleri,

4:20

işte harcamaları, gelirleri, giderleri

4:24

dekii anomalileri, fazlalıkları, rutinin

4:27

dışındaki şeyleri aslında yapay zekaya

4:31

eee

4:32

keşfettiriyorlar, buluyorlar ve o

4:34

raporlarla devam etmeye başladı

4:36

şirketler. Bu nasıldır? Ben de staj

4:38

yaptım. çok staj yaptım gençken. Eee,

4:41

bize işte böyle bir ben stüdyoda

4:44

çalıştım ve işte suyu da getirirsiniz

4:47

konuğun eee lojistik işlerini de

4:50

yaparsınız ama çok karışık oturup

4:51

soruları da size yazdırırlar. Bunlar

4:54

gibi yani aslında orada iş ne demek?

4:57

Nasıl bir iş kültüründe var olunur? işte

5:00

müdürünüzle nasıl doğru bir şekilde başa

5:03

çıkarsınız falan gibi böyle hayatımızın

5:06

geri kalanında bize yardım edecek

5:08

şeyleri öğrendiğimiz işler korkarım

5:10

yavaş yavaş ortadan kalkıyor. Onun için

5:12

eee gerçek ama Dario tabii çok iddialı

5:15

bir şey söyledi. Biraz da şey diyorum

5:18

ben. Yani o kara eee kutunun kapağını

5:21

açtı ve dışarıya çok büyük bir tartışma

5:23

fışkırdı. Biz bunu birazcık hasır altı

5:26

ediyorduk birkaç yıldır. Bu çok gerçek

5:29

bir tehlike olduğu halde tartışmamayı

5:32

tercih ettik bugüne kadar. O tartışma

5:35

ortaya çıktı.

5:35

>> E peki şimdi bir tartışma başladı. Bu

5:38

tartışma esas olarak nereden yürüyor?

5:40

Yani insanları şimdi mesela gençleri

5:43

özellikle çok eee risk altında

5:46

bıraktığını görüyoruz. eee adapte edelim

5:49

insanları buna adapte edelim mi yoksa

5:52

muhtemel tepkileri nasıl yönetiriz mi?

5:56

Sebepleri mi eee düzenlemeye

5:58

çalışıyorlar yoksa sonuçları kontrol

6:00

altına mı almaya çalışıyorlar?

6:01

>> Şimdi öncesi ikisini de yapmıyorlar.

6:03

Hemen ben sorunun yanıtını vereyim. Hiç

6:05

karışık bir şey yok. Yani hani bunun

6:07

farkında olmamız, bu konuyu düzeltmek

6:09

için bir şey yaptığımız anlamına

6:11

gelmiyor. Şirketler tabii sondan sonra

6:14

kaynaklarına kendileri hakim olduğu için

6:16

onlar bir şey yapıyor. Anlatayım onu.

6:18

Ama

6:19

>> regle edenler, yasa yapıcılar bu işi

6:22

aslında bizim hayatımızı sosyal bir

6:25

şekilde zenginleştirmesi ve

6:27

iyileştirmesi gerekenler bu konuya daha

6:29

gelmediler.

6:31

günlük etrafımızda her gün uyanınca

6:33

nefes aldığımız problemlerle başa

6:35

çıkmaya çalışıyorlar.

6:36

>> Yani devletleri ve uluslararası

6:37

kurumları onları kastediyorum. Bence bu

6:40

tartışma oralarda daha başlamadı. Var

6:43

bazı çözümler. Ona girelim ama ona

6:46

girmeden önce bir şey söylemek

6:48

istiyorum. İlk olarak yani bu ben

6:50

Silikon Vadisi'e San Francisco'da oturan

6:52

bir insanın yaşadığı bir heyecan ve

6:56

heyecandan biraz negatif bir heyecan

6:57

galiba korku diyelim adına. Bunu hani

7:00

anza belki de bu geliyor ve biz bu

7:02

konuda bir şey yapmıyoruz diye oturup

7:04

yazıları ben yazıyorum. Bir yandan

7:07

aslında bu geçişin hiç de pat diye

7:09

olmayacağını düşünenler var. Onu bir

7:12

park edelim. Yani bu işin uzun yıllar

7:15

içinde olacağını düşünenler var ya da

7:18

kademeli ve sınırlı bir etkiliyle

7:20

olacağını düşünenler var. Onlar da şuna

7:22

referans veriyor. Kimsenin hakkını yemek

7:24

istemiyorum burada. Diyorlar ki 100

7:26

yılın başında insanlığın sadece %2'si

7:30

eee tarım dışında çalışıyordu. %98'i

7:33

çiftçilik yapıyordu insanlar. Tarlalarda

7:35

çalışıyorlardı. Biz aslında 100 yıl gibi

7:38

aslında insanlık tarihi için çok kısa

7:39

bir zaman içinde bugünkü

7:42

endüstriyelleşmiş, şehirleşmiş dünyaya

7:44

uyum sağlamayı başardık ve eee bir tek o

7:48

değil. İnternet devrimi son 203 yıl

7:51

içinde meydana geldi. Ona da uyum

7:53

sağdık. Yani internet öncesinde de çok

7:56

ilginç işler vardı ve artık yoklar

7:58

bunlar. Neredeyse herhalde bir %40'ı

8:00

falan işlerin değişti. Yapısı da değişti

8:03

işlerimizin. Birinci okul bu yarın

8:05

gelecek. Yani yarından baktım 3 3 vakte

8:08

kadar 2 yıl içinde 5 yıl içinde 10 yıl

8:11

içinde gelecek diyenlerle

8:14

>> biz topluca 8 milyar okyanusa pat diye

8:17

düşeceğiz yani diyenler bunlar. Öbür

8:19

tarafta hayır biz bunu birkaç jenerasyon

8:22

içinde farklı yetenekleri geliştirerek

8:25

buna uyum sağlayarak ve eee özel

8:28

sektörün ve ekonominin gücüne güvenelim.

8:31

Onlar o işleri hiç durmadan hızla

8:33

yaratırlar. Yeni jenerasyon bu

8:35

adaptasyonu düşündüğümüzden daha hızlı

8:36

yapacak diyenler var. Yani ikiye

8:38

bölünmüş şekilde şu anda tartışma.

8:41

>> Bunun nasıl ama nasıl olacağına dair bir

8:44

tahminimiz şu anda olamaz değil mi? Yani

8:46

yap yaşayıp göreceğiz gibi mi düşünelim?

8:49

>> Eee zor bugün bilmiyoruz. Bunu

8:52

bilmiyoruz ama bildiğimiz şeyler var

8:54

bugün olan. Yani ben yazımda üç vakitten

8:57

bahsettim. Birinci vakit çok net. giriş

9:00

seviyesindeki analizle alakalı, veriyi

9:03

değerlendirmeyile alakalı, bilgiyi

9:06

toparlamakla alakalı ve olabildiğince

9:10

rutin yani makine öğrenmesine

9:12

tanımlayabildiğimiz şeylerden

9:14

bahsediyorum ben. Yani bir call center,

9:16

bir müşteri hizmetleri, sorulan

9:19

soruların %98'i standarttır zaten. Bu

9:22

standart şeyleri son derece iyi bir

9:24

şekilde bugün üretici yapay zeka

9:26

halledebiliyor. Halledebildiği başka bir

9:28

sürü şey var. Bu bağlamda bununla ilgili

9:31

işler tabii ki yok olacak. Kısa zamanda

9:33

yok olacak ve bunları da değerlendiren,

9:36

yapan insanlara da ihtiyacımız

9:38

olmayacak.

9:39

>> Peki o zaman şunu sorayım. Şimdi hızlı

9:41

ya da kademeli bu bunu bir tartışmayı

9:44

bir kenara bırakarak devletlerden,

9:46

kurumlardan ya da küresel olarak

9:48

insanlıktan medet ummak yerine bireysel

9:51

olarak kendimizi mi kurtarmalıyız?

9:53

Kendimiz mi adapte olmalıyız? Ve tabii

9:55

bunu bir de nasıl yapabiliriz?

9:57

>> Evet. En büyük problem zaten geçiş. Yani

10:00

iki jenerasyon ya da hatta bir

10:02

jenerasyon sonrası bugün doğan çocuklar

10:04

bu işi çözecekler. Benim hiçbir şüphem

10:07

yok buna. Yani insanoğluna muhteşem

10:10

adaptasyon yeteneği, beyniyle bunu her

10:14

işi başarabilmemiz bizim dair muhteşem

10:17

örneklerimiz var. Benim onda şüphem yok.

10:19

O aradaki jenerasyona ne olacak? Eee,

10:23

biz bile değil. Bizden iki sonrası, bir

10:26

sonrası ne olacak sorusunu da

10:28

>> eee bir o yetenekle yani buna adapte

10:33

adapte olamayacak, işsiz kalacak

10:36

insanların karınlarını doyurması

10:37

gerekiyor ve yapabileceklerini de derhal

10:41

yapay zekayı öğretmemiz gerekiyor.

10:43

Onlara teknoloji kullanmayı öğretmemiz

10:46

gerekiyor. teknolojiyle çiftçilik,

10:48

teknolojiyle yemek yapma, teknolojiyle

10:52

eee

10:53

müşteri yönetimi, teknolojiyle

10:55

gazetecilik yapmak gibi kendi başımıza

10:58

öğrenmek zorunda kaldığımız şeyleri

11:00

aslında kurumlar ve devletler

11:02

kolaylaştırabilir.

11:04

Daha proaktif bir biçimde insanların bu

11:07

sıçramayı kolay yapabilmesi için eğitim

11:09

faaliyetlerini yaygınlaştırabilir. Bu

11:11

çok açık bir şey. İkincisi de tabii bu

11:14

ünlü evrensel asgari ücret tartışması

11:16

var. Çok para kazanan ve paranın çoğunu

11:18

kazanacak 3 be tane şirkete tabii ki

11:21

vergi koyabiliriz. Yani bu çok aleni bir

11:23

durum ama bir tek o değil. Eee toplumda

11:27

sürtüşmelere,

11:29

karışıklıklara neden olabilir. Bu çok

11:31

boyutlu bir işsizliğe gidilirse. Yani

11:33

dünyada bugün işte %8 ile e %20 arası

11:38

belki de bazı ülkelerde çok daha büyük.

11:41

Afrika'da mesela daha geniş bir eee

11:43

işsizlik var. Eee bu

11:47

insanları bir şekilde şirketler tabii ki

11:50

ü tane ülkede, be tane ülkede bütün

11:53

dünyanın geri kalanında ciddi bir uçurum

11:55

riski var. Oradaki devletlerin çok daha

11:57

proaktif bir şekilde o asgari ücreti ya

12:01

da minimal refahı sağlaması gerekecek

12:04

insanlara nereden karşılayacaklar bunun

12:06

kaynağını gibi tabii büyük sorularımız

12:08

var. düşünmeye başlamak gerekiyor diye

12:11

düşünüyorum bunları. Şimdi birey,

12:14

>> gelelim bireye.

12:15

>> Gelelim bireye. Tabii en önemli şey o.

12:17

Yani eee

12:20

bireyler ne yapmalı? İnanın bana en yani

12:23

bu konudaki popüler insanlardan bir

12:25

tanesiyim. Biricik güzel dostlarım hep

12:28

beni arıyorlar. Bizim çocuk ne okumalı?

12:31

Üniversitede ne yapmalıyız? İşte liseden

12:33

şuradan mı başlayalım? işte hangi meslek

12:36

e daha

12:38

doğru geçerli olacak gibi bu soruları

12:42

soruyorlar. Şimdi bunun yanıtını vermek

12:44

çok zor ama alen iki tane konu var bence

12:47

benim önümde onları söyleyeyim.

12:49

Birincisi tabii ki yapay zekayın ne

12:53

olduğunu anlamak gerekiyor. Yani bu

12:55

biraz böyle işte internet kullanımını

12:57

öğrenelim falan gibi bir şey değil.

12:59

mantığını anlamak gerekiyor. Eee, çünkü

13:02

bu bir algoritma ve bizim oluşturduğumuz

13:05

bir şey. Yani niye oluşturabiliyoruz?

13:07

Nasıl oluşturabiliyoruz? Hangi mantıkla

13:10

verimli olur? Hangi mantıkla çok

13:12

anlamsız şeyler size söyler? Çözmek

13:15

lazım. Çözdüğümüz zaman her ne iş

13:17

yapıyorsak ona uyum uyum sağlayabiliriz,

13:19

üretebiliriz. Doğru pramtı verebiliriz,

13:21

kullanabiliriz. O anlamda hani eee ben

13:24

şuna inanıyorum. Yapay zekayı anlamamak,

13:27

kullanmamak kariyer intiharı bence. Yani

13:31

bugünden her ne seviyede her kim ol

13:33

özellikle de genç arkadaşlar tabii çok

13:35

daha başarılılar bizden anlama ve

13:37

kullanma eee

13:40

biçiminde ama kariyerlerini entegre

13:42

edebilecek şekle getirmeleri gerekiyor.

13:46

Bu çok değerli. Bu bir. Olmazsa olmaz

13:48

diyorum ben buna.

13:50

İkincisi de eee şöyle bir şey var. Yani

13:54

kendimden örnek verdim. staj yaptığım

13:56

zamanlardan hayata ilk adımlarımı

13:58

attığımda ben ne istiyorum, şirket ne

14:01

istiyor, bunun ortak kısmı neresi? Ne

14:04

işe yarayacak? Ben ne işe yarayacağım?

14:06

gibi koca soruların yanıtlarını bulmaya

14:08

çalıştığım zaman eee şu anda şöyle bir

14:12

akım var. En azından Amerika'daki büyük

14:14

global ilk 500'deki şirkette stajyerlere

14:17

o demin bahsettiğim suyu doldur

14:20

müşterinin sandalyesini çek toplantıyı

14:24

setup et değil. Müşteriyi ilgilendiren

14:28

problemleri sen çöz. Onlarla birebir

14:30

muhatap ol ve çok zor problemleri genç

14:33

insanlara derhal vermek yönünde bir

14:36

değişim var. Bunu staj bir parçası

14:39

yapıyorlar. Bir iki yeni işe alımlardaki

14:43

arkadaşlara çok daha büyük bir

14:45

sorumluluk vermeye başladılar. Bence bu

14:48

çok doğru bir şey. Çok doğru bir şey.

14:50

Yani benim kendi tecrübem de bana bunu

14:51

söylüyor. Eee, ömrüm boyunca ben çok

14:54

genç insanları takımlarımda her zaman

14:57

eee hangi seviyede olursam olayım yaş

14:59

itibariyla, deneyim itibarıyla da yeni

15:02

gelen gençlere yer vermiş birey olarak o

15:06

yaratıcılık, o inovasyon, o hırs, o

15:09

istek bence çok değerli bir şey ve eee

15:12

>> ve bunları beslemek mümkün olduğunca da

15:15

>> %100 yani kendi kendilerine öğrenmeye

15:18

izin vermek gerekiyor. İnsanın

15:20

yaratıcılığına temelde güvenmemiz

15:22

gerekiyor. Yani bu bu benim en ana

15:25

cümlem burada. Hani ne yapacağız biz bu

15:27

yapay zekada sorusunun cevabı insanın

15:32

bireysel yaratıcılığına ve yeteneğine

15:34

inanmamız lazım. Ama önemli olan yani

15:37

tamam o genç çocuklar gelecekler onlara

15:40

yer açmamız gerekiyor. Sen bunu

15:42

yapabilirsin. Ben sana güveniyorum diye

15:44

o sorumluluğu vermek zorundayız ki

15:48

ileride değerli olabilecek insani

15:50

yetenekler. Çünkü bütün bilgiyi zaten

15:52

makine yapıyor olacak. Yani

15:55

meteorologlar çok önemli bu arada.

15:57

Sadece süper computerların yapabildiği

16:00

bir şey yapabiliyor. Yani şu anda öngörü

16:03

yapamıyoruz. Çok zor bir şey hava

16:04

durumunu öngörmek. Örneğin, eee,

16:07

yıllarca Berkley'de bu konuda çalışmış

16:09

profesör arkadaşım var. Hiç çözemiyoruz,

16:11

çözemeyeceğiz diyor mesela.

16:14

yapay zekaya da güvenmiyor ama eee

16:17

yapabildiği çok şey olduğu zaman önemli

16:20

olan o bizim öngörme, insanları anlama,

16:25

ne düşündüğünü hissetme ve ben ne

16:28

katabilirim hissel olarak, öngörü

16:32

olarak, hayal dünyası olarak,

16:34

yaratıcılık olarak. Bunlar hep insani

16:36

şeyler. Eee, o kısımlarına güvenmemiz

16:39

gerekecek insanların. O da erken yaşta

16:42

ne kadar tecrübe olursa o kadar hızlı

16:44

olabilir diye düşünüyorum.

16:45

>> Evet. Burada hız önemli. Şimdi siz

16:47

kitabınızda da yetenek konusundan

16:49

bahsediyorsunuz ama belki de orada

16:51

verdiğiniz örnekler hızlıca eee

16:55

eskiyebiliyor. Yani yapay zekanın

16:57

süratine alışmak için belki de mantığını

17:00

tamamen anlamak gerekiyor.

17:02

>> Evet. Evet. Kitaba referans yaptınız.

17:04

Burada da eee yeni çıktı. Ondan da ondan

17:08

da bahsedelim. eee şöyle evet eee

17:13

eskimeyecek yetenekler çok değerli.

17:15

Bunlar da insani yetenekler. Yani kritik

17:18

düşünce, eleştirel düşünce, eee

17:21

kavrayabilme kapasitesi, hızla

17:23

soyutlayabilme. Yani bunu ben böyle

17:25

görüyorsam başka bir problemde şu

17:27

şekilde uygulayabilirim. E bu da

17:29

deneyimle olabilecek bir şey. Ancak ve

17:32

ancak o bağlamda böyle e statik

17:35

bilgilere dayalı eğitim, statik

17:39

bilgilere dayalı eee kendimizi

17:42

geliştirme çabalarına eee gülümseyerek

17:45

bakıyorum. Ne yazık ki öyle bir dünya

17:48

yok. Yani çocukları kapalı bir yere atıp

17:51

onlara problem verme zamanı. Şimdi

17:54

öğretme zamanı değil. Siz ne yapmak

17:56

istiyorsunuz? ne düşünüyorsunuz bu

17:57

konuda diye. Onların bize söylediklerini

18:00

yapma. Bizim

18:02

bizim yapma zamanımız. Biz dinozorların

18:05

onları dinleme zamanı demeye çalışıyorum

18:07

galiba. Evet.

18:09

>> Staj konusunun üzerinde duruyorsunuz.

18:11

Eee bu oksijendeki bahsettiğimiz

18:14

yazılarınızdan birinde de bunu kendi

18:17

tecrübeniz üzerinden de anlatıyorsunuz.

18:19

Kendi stajyerinizin hikayesi üzerinden

18:21

anlatıyorsunuz.

18:22

>> Evet. Çok çok keyifli bir anekdot. Onu

18:24

paylaşmak istiyorum. Yani eğer bizi

18:27

gençler dinliyorsa ya Şegün Hanım böyle

18:29

diyorsunuz da kimse bize bu olanağı

18:31

vermiyor. Ne yapacağız? Yapabilir miyiz

18:33

biz diye kendini sorguluyorsa gençler bu

18:36

güzel bir örnek. Eee

18:38

benim ilk benim hep bir sürü

18:40

stajyerlerim oldu. Hepsi de şahane ve

18:42

çok başarılı insanlar oldular hayatta.

18:45

Eee, bir tanesi çok parıl parıl 3. sınıf

18:48

öğrencisi. Eee, Boğaziçi'nden yanıma

18:52

geldi. Hiç iş tecrübesi yok ama voleybol

18:54

takım kaptanlığı yapmış. Hemen yakalarım

18:57

yani böyle bir yerde bir pırıltısı var.

19:01

Anladım. Liderlik içinden geliyor. Eee,

19:05

ben de o zamanlar Allah'ım 67 tane

19:07

ülkeden sorumluyum. Zaten küçük bir

19:10

takımım var. Böyle sıfırdan bölgeyi

19:12

korumaya çalışıyorum. Türkiye Ortadoğu

19:14

Avrupa bölgesini ay Avrupa diyorum

19:16

Afrika bölgesini kurmaya çalışıyorum.

19:17

Hiçbir şeyimiz yok. Böyle formal yapılar

19:20

oluşturmaya çalışıyorum. Devamlı

19:21

uçaktayım ve İstanbul'da ancak işte

19:23

zamanımın %5'ile 10'unu geçirebiliyorum.

19:27

Eee, birkaç iş vermeye başladım. Baktım

19:30

çok başarılı. Hemen anında kendince

19:32

çözümler oluşturuyor bana. Bir ay, 2 ay

19:35

ya dedim ben onu e böyle tek işte şimdi

19:38

şunu yap, sonra bunu yap ama bu olursa

19:40

böyle falanı bıraktım.

19:43

Bir 6 ay sonra döndüm dedim ki benim

19:46

senden istediğim problematik şu:

19:50

Çözümünü de bilmiyorum. Sonucu bile

19:53

bilmiyorum. Ne istediğimden bile emin

19:54

değilim. Yani hangi sonucu istediğimi de

19:56

bilmiyorum. Ama şöyle bir şeyimiz var.

19:59

Problem problemimiz var ortada.

20:02

Sen sana bırakabilir miyim bunu? dedim.

20:05

Ve o yaşında yani herhalde 19 yaşındaydı

20:08

o zaman ya da 20'ye yeni girmek

20:09

üzereydi. Hala babası arabayla

20:12

getiriyor. Araba kullanmayı bilmiyor.

20:14

İşe sabahları geliyor baba bırakıyor.

20:18

O kadar parlak bir kız ki yukarı çıkıyor

20:21

ve çalışmaya başlıyor çılgınlar gibi.

20:23

Eee benim 67 ülkenin özel kurmaya

20:28

çalıştığım bir dağıtım kanalını sıfırdan

20:31

kurdu. dör tane ülkede insanlar işe

20:34

aldı, müşterileri ayarladı. Ne istiyorsa

20:37

verdim tabii ben o sırada ona kaynak

20:39

olarak ve çok başarılı bir iş yaptı.

20:41

1920 yaşında bir genç kadın. Eee, orada

20:46

bence şey oldu. Yani benim insana dair

20:49

güvenim ve inancım böyle yüz katına

20:52

çıktı birdenbire. Bu yaşla ilgili değil

20:55

bu. Yani araba kullanmayı

20:57

bilmeyebilirsiniz ama insanları

20:59

dinlemeyi ve problemlere teşhis koyup

21:02

çözüm getirmeyi çözebilirsiniz. Onun

21:04

için altını çiziyorum. Kendinize güvenin

21:07

gençler diyorum. Tabii ki patronlara da

21:09

çocuklara eee şans verin.

21:11

>> Evet. Burada kritik anlardan biri de

21:14

sizin aslında o yükü onun omzuna bırakma

21:17

cesaretini de gösteriyorsunuz siz bir

21:20

yandan.

21:20

>> Evet. Evet. Aynen öyle. Ve ondan sonra

21:22

da dediğim gibi yani hangi seviyelerde

21:25

olursam olayım, başkan yardımcısı

21:26

olduğum zaman da, başkan olduğum zaman

21:28

da benim takımımda 25 yıllık tecrübesi

21:32

olan insanların yanında hep gençler

21:34

olmuştur. 3 yıllık, 2 yıllık, 5 yıllık.

21:37

Onların bakış açısı çok değerli ve onsuz

21:39

iş yönetmememiz gerekiyor bizim.

21:42

>> Şimdi o zaman gençlerle ilgili bir şey

21:44

daha sormak istiyorum. Siz dediniz ki bu

21:45

dünyanın içine doğanlar bu meseleyi

21:48

halledecek. onlarla ilgili herhangi bir

21:50

endişem yok.

21:51

>> Hı hı.

21:52

>> Bu sanırım şuna işaret ediyor. Beynimiz

21:55

buna adapte olacak. Bu yeni dünyaya,

21:58

yeni yaşam biçimine adapte olacak. Eee,

22:02

yazılardan birinde şöyle bir soru

22:03

soruyorsunuz. Yaşamı idame ettirmek için

22:07

tüm gerekleri robotlar hallederse o

22:10

zaman beyin ne işe yarar? Şimdi beyin

22:14

yakında ne işe yarayacak?

22:17

>> Oo, evet.

22:19

1 milyar dolarlık soru geldi.

22:22

E ne işe yarayacak ya? Şöyle öncelikle

22:27

beyin plastisitesine güvenmemiz lazım.

22:30

Yani bu bizim beynimiz nasıl opere

22:34

ediyor ve milyonlarca yıldır

22:37

canlıların içinde minicik bir beyin

22:40

pırıltısı gördüğümüz 500 küsür milyon

22:42

yıldır nasıl opere ediyor? aslında

22:45

çevredeki her şeye uyum sağlamaya

22:47

çalışıyor. Onu modellemeye çalışıyor ve

22:53

lehine olan şeyler kısımlarında o

22:56

yaptığı o da adıma ben algoritma diyorum

22:59

ama yani aslında orada bir yiyecek varsa

23:01

o yiyeceğe doğru yaklaşmak da bir

23:03

algoritma diyorum ben ona. Ondan sonra

23:06

bir tehlike varsa o tehlikeden kaçmak da

23:08

bir algoritma. onun hissini, o korkuyu

23:12

yükseltmek, geçtiği zaman korkunun aşağı

23:15

inmesi, o tehlikenin bunların hepsi

23:17

canlıların öğrendiği şeyler ve çok

23:20

muhteşem. eee, beynimiz o kadar

23:23

sofistike ki, eee, hızlı bir şekilde o

23:26

çevreye uyum sağlayabiliyor. Eee, Tenon

23:29

Boom diye bir hoca var MIT'de. Diyor ki,

23:32

"Beyin aslında dünyayı modelleme

23:34

makinesıdır." diyor. Hiç durmadan

23:36

yukarıdan bakıp o dünyanın algılayıp

23:39

algılayıp ona göre farklılık değiştiren

23:41

bir alettir diyor açıkçası. Şimdi biz

23:46

eee bu kadar sofistike canlılara nasıl

23:50

dönüştük? Aslında işte demin bahsettiğim

23:53

gibi karşımızdaki ne hissediyor? Nereden

23:56

bir korku gelecek? Nerede bir tehlike

23:59

var? Ve nerede ben kendimi idame

24:01

ettirebilirim gibi bir gün bunların

24:04

hepsini yapay zeka ve makineler ve

24:06

robotlar eğer yaparsa yani ben burada

24:09

oturuyorum. Bütün bu ortamı buradaki çok

24:11

değerli arkadaşlarımız değil robotlar

24:13

sağlayabilse aslında. Hatta soruları da

24:16

siz sormasanız

24:19

bir

24:19

>> hiç fena olmaz. aman öyle demeyin. Bence

24:22

çok güzel. Ben böyle güzel gülücükler

24:25

veremem o zaman. Karşımda bir insan

24:27

olmazsa. Yani iletişimin %90'ı insani

24:30

bir şey. Bunu unutmamamız gerekiyor.

24:32

Makinesel bir şey değil. Eee öyle bir

24:36

ortamda benim burayı sıfırdan kurmama

24:38

gerek kalmayacak. Kalmadığı zaman

24:41

problem çözme isteğim ve yeteneğim

24:43

birden bir azalmaya başlayacak. Ama

24:45

beyin çok sofistike 100 milyar nöronumuz

24:47

var. Ne işe yarayacak? Bunlar gibi koca

24:49

bir soru var.

24:50

Şöyle düşünüyorum. Tabii bu tamamen

24:52

Ayşegül'ün falcılığı bu. Yani beş vakte

24:55

kadar 3 vakte kadar konuşuyor. Şimdi

24:57

tamamen eee yanılma olasılığımızın

25:00

yüksek olduğu şeylerden bu.

25:03

Bizim şu insani değerlerimizi

25:06

kullanabildiğimiz bir dünyaya

25:08

ulaşacağımızı bir kere farz etmemiz

25:09

lazım. Şu demek bu. Eee biz o zor

25:14

günleri atlatmışız. Yapay zeka ve

25:17

makineler bunu yapar. Biz insanlar da

25:19

şunu yaparız kısmı yani acılı geçme

25:22

olasılığı yüksek fazı atlatmak

25:24

zorundayız. Bir kere onu geçtiğimizi

25:26

düşünüyorum. Bir onu geçtikten sonra

25:29

bence bir o deminden beri bahsettiğim

25:32

güzel insani yetenek kısmı çok

25:35

abartabilir. Yani biz tamamen

25:37

hislerimizle ve duygularımızla var olan

25:41

ve mekanik şeyleri yapmak zorunda

25:43

kalmayacak canlılara ve bir türe

25:45

dönüşebiliriz. Bu bir olasılık.

25:49

İkinci olasılık tamamen

25:52

öbürü. O da şu insanın merak diye bir

25:55

şeyi var ve bizim DNA'mıza kodlu bu. Biz

25:58

çok meraklı olduğumuz için buradayız.

25:59

Yani düşünebiliyor musunuz? İşte 5.000

26:01

yıl içinde bir sürü şeyi çözdük. İşte

26:03

yazıyı çözdük, aya gidiyoruz, uzaya

26:05

gidiyoruz vesaire. Yani fizik

26:07

kurallarını anladık. Yakında uzayı

26:09

keşfedebileceğimizi düşünüyoruz. Kuantum

26:11

fizikten bahsediyoruz vesaire. Şimdi bu

26:16

merak eğer bu geçiş süresinde ayakta

26:18

kalırsa genetik kodumuzdaki merak çok

26:21

acayip şeyler yapabiliriz. Düşünsenize

26:23

makineler bütün bu deminden beri mesela

26:25

biyolojinin sırlarını daha çözemedik.

26:27

Yani genetik biliminde çok ilerledik ama

26:29

bir sürü hiçbir fikrimiz olmayan problem

26:32

var. Yani beyni de çözemedik. Bunları

26:34

daha hızlı bir şekilde çözmeye, üzerinde

26:37

çalışmaya zamanımız olabilir, kaynağımız

26:40

olabilir. Bütün idame etme

26:42

problematiğini makinelara bırakırsak o

26:45

zaman bu çok merak ettiğimiz ve hiç

26:47

yanıtını bilmediğimiz konulara

26:49

çılgınlarca zaman ve vakit ayırabiliriz.

26:53

Bu da ikinci olasılık. İkisi de çok

26:54

güzel olasılıklar. Hiç kötü değil yani.

26:56

Biri bilime zaman harcayacağız ve onunla

26:59

birlikte daha da değişik şeyler yapmaya

27:02

çabalayacağız. Belki uzayı

27:03

keşfedebileceğiz bu bağlamda. Beynimizin

27:06

anlamını ve neden bu kadar sofistike

27:08

olduğunu çözersek replike edebileceğiz

27:11

falan falan çok ilginç şeyler

27:12

yapabiliriz. Bir yandan da belki de

27:14

oturup sanat yapıyor olacağız. Yani

27:16

bütün gün ben ne hissediyorum ve neyi

27:18

yansıtmak istiyorum karşımdakine gibi

27:21

güzel sorular. Yani bugün hiç vaktimiz

27:23

ve belki de işte dünyada ne bileyim

27:25

10.000 kişinin vakti ve zamanı ve

27:28

kaynağı olan şeyleri hepimiz

27:30

yapabileceğiz. E beyin tabii bunu adapte

27:33

gösterir. Çok güzel gösterir. Ya böyle

27:35

gider ya böyle. Eee ben zaten şöyle

27:38

diyorum. Yani yapay zeka büyük bir

27:40

olasılıkla

27:41

ya çok genel insanlar yani yetenek

27:45

itibariyle konuşuyorum

27:46

>> çok genel yetenekleri olan insanları

27:49

ortaya çıkaracak ya da ultra dikey bir

27:52

konuda süperist

27:55

uzman insanlara doğru bir ayrım gelir

27:58

diye düşünüyorum.

28:00

eee, yazıda elinde robot yapımı

28:02

margarita ile plajda oturanlar mı yoksa

28:05

keskin bilim odaklı interstellar yani

28:07

yıldızlar arası yeni bir tür mü olacağız

28:10

diye soruyorsunuz. Eee, bunlar fayda

28:13

açısından sanki eee, bilime eee,

28:17

yönelmek iyi olabilir ama ikisi de

28:19

birbirinden daha şahane şeyler değil.

28:22

İkisini birden yapabiliriz belki de.

28:24

>> Ya doğru söylüyorsunuz, haklısınız. Yani

28:26

ben onu tabii elimden geldiğince

28:28

karikatürize etmeye çalışıyorum ki

28:30

>> eee Margarita'yı gidip yapmaya bile

28:33

gerek kalmayacak. O uzay gemisinin

28:36

dizaynını da yapay zeka yapacak. Bize

28:38

düşlemek kalacak. Bir de onun bir

28:41

şekilde fizik kurallarına aykırı

28:44

kısımlarını çözmemiz gerekecek. O da çok

28:47

zor bir şey tabii ki. Eee evet. Eee ama

28:51

bakın üç vakit 3üncü vakitte oluyor bu.

28:54

Evetakte

28:55

>> acılı kısmı atlattığımızı varsayıyoruz.

28:58

>> O ortadaki kısım o kadar zor, o kadar

29:00

acılı olabilir ki ve onu başaramazsak

29:05

diğer tarafa o zaman tabii türün yok

29:08

olma olasılığı her zaman var. Yani hani

29:10

kötü haberci olmak istemiyorum ama

29:13

bugünden itibaren o fazı nasıl

29:15

atlatacağımız hakkında pozisyon almamız

29:18

lazım. Yetenekleri geliştirmeye

29:20

çabalamamız lazım. Daha da önemlisi ülke

29:23

olarak o uçurumdan bahsediyorum. Yani o

29:27

uçurumda buna sahip olanlarla

29:29

olmayanlar, bundan değer yaratmayı

29:31

bilenlerle bilmeyenler gibi katmanlar

29:35

oluşabilir. Bu kötü senaryo, o kötü

29:37

senaryoda tabii ki yapabilenlerin

29:40

arasında olmamız gerekecek.

29:43

>> Şimdi yapay zeka ve işsizlik konuştuk.

29:46

Hiç beklenmedik bir şekilde yapay

29:48

zekanın işsiz bıraktığı konuşulan bir

29:51

başka insan var. İlk CEO'su Linda Hanım.

29:55

>> Aa Linda Hanım. Evet.

29:58

>> Eee şimdi hızlıca onu özetlemeye

30:01

çalışayım.

30:01

>> Ilan Musk'ın altında çalışan bütün

30:03

insanların başına gelen bir sonuca tabii

30:06

ki o da ulaşmış bulundu. Evet. eee, Elan

30:09

Musk'ın ik'inin yapay zekası Grock'taki

30:13

bazı Grok'un kullanıcılara verdiği bazı

30:16

yanıtlar nedeniyle eee, başının derde

30:19

girdiği ve istifa ettiği söyleniyor.

30:23

Eee, biz de çok benzer bir şeyi kendi

30:26

ülkemizde 2ü gün önce bundan yaşadık.

30:29

eee devlet büyüklerine eee yönelik eee

30:32

hakaret ifadeleri nedeniyle eee burada

30:36

buradaki sorun nedir? Yani bunu biraz

30:38

bize özetler misiniz? Bu Grok, Grok'un

30:41

yarattığı bu karmaşa nedir?

30:43

>> Evet. Eee şimdi bir kere Linda Hanım

30:48

çok güzel Türkçemiz.

30:50

Bu yüzden gittiğime emin değilim. Eee,

30:53

orası çok karmaşık. Bu, e, Trump'la olan

30:57

problemlerden sonra giderek zorlaştı

31:00

bence orayı yönetmek. Hani ne yapsam

31:03

yanlış derler ya bazen öyle bir duruma

31:05

düşmüş olabilir. Eee, bütün şirketleri

31:10

Musk'ın. O bağlamda da e kadın kendine

31:13

bir yeni bir pozisyon almak ve bu

31:15

karmaşıklığın içinden çıkmak istemiş

31:17

olabilir. Ya da tam tersi aynı frekansta

31:20

olması zor bir insan olduğu için patronu

31:22

olamamış olabilirler. İlla da bu son üç

31:24

gün olan konulardan dolayı olduğuna emin

31:27

değilim ama eee oradaki konu şu aslında.

31:32

Mask eee bu

31:35

üretici yapay zekanın bir yelpazesi var.

31:39

Orada da onu ne kadar kontrol edeceğimiz

31:43

üzerine çok büyük bir tartışma var. Gün

31:45

sonunda tekrar edelim. Nedir bu

31:47

kullandığımız her gün şey? Milyarlarca

31:50

insanın verisinin yani ben ne diyorsam

31:52

ona ne yazıyorsam onun ortalamasını

31:55

alır, averajını alır, ondan öğrenir ve

31:59

algoritması onlardan öğrenmek üzerinedir

32:01

ve onun aynısını size geri söyler. O

32:04

bağlamda, eee, yapılan yorumlar ırkçı

32:09

olabilir, hakaret variere

32:15

son derece aykırı şeyler, yasal olsa

32:18

bile aykırı şeyler olabilir. Toplum

32:20

hayatına aykırı ki bahsettiğiniz

32:22

örneklerin hepsi illegal yani yasal

32:24

olmayan şekilde konuşuyor.

32:26

>> Eee, bunun sınırını nerede çizeceğiz? en

32:29

büyük tartışmalardan biri dünyadaki

32:32

zaten. Ve bunu kim kısıtlayacak? Yani o

32:34

çizgiyi kim çizecek? Eee, Muskro onun en

32:40

bir tarafında bulunan bir örnek. Diğer

32:43

şirketler daha, eee, muhafazakar

32:45

yaklaşıyorlar ve insanları galayağına

32:48

getirmeyecek, çok aleni şekilde toplum

32:51

hayatına aykırı cümleleri, yorumları

32:54

bilerek kapatıyor, siliyor ve

32:56

kısıtlıyorlar. Bunu ancak bir insan

32:59

müdahalesiyle yapılabilir. Yani o kapalı

33:01

kutu henüz ne yazık ki tabii nedeni de

33:04

belli. Yeterince bu konuda araştırma

33:06

yapmadığımız için ona bunu doğru şekilde

33:09

şim bu da çok büyük bir iddia. Doğru

33:11

şekilde düşünmek ne demek Ayşegül Hanım

33:13

diye sorarsanız tırnak içinde bir cümle

33:16

kuruyorum. Eee etik ve herkese eşit

33:19

mesafede ve genel geçer kurallar

33:23

çerçevesinde düşünebilmeyi bilmiyor bu

33:25

alet. Hiçbir fikri yok. Hatta kendi

33:28

kendine yanıtlar veriyor. E tabii ki o

33:31

zaman bir insanın müdahalesiyle bunlar

33:33

illegaldir, şunu dersen çok ayıp olur

33:35

falan diye tıkır tıkır öğretmemiz

33:36

gerekirken ki diğer dört küsur şirket ya

33:40

da kaç tane varsa dünyada bir sürü dil

33:42

modeli var artık. Onlar muhafazakar

33:44

yaklaşıp kurallar koyarken etrafına Musk

33:47

dedi ki ben bu kurallara inanmıyorum.

33:48

Serbest bırakın bunu dedi. Onun için de

33:50

algoritmayı serbest bıraktıkça başına bu

33:53

problemler gelecek ve gelmeye de devam

33:55

ediyor. Geçmişte de yaşadı. Nisan ayında

33:57

da yaşandı bu. Mayıs ayında da yaşandı.

33:59

Şimdi yaşandı. Bu şaşırtıcı değil. Bu

34:01

bir seçim. Ama şu andaki politik

34:05

pozisyonu biraz negatife çıktığı için

34:07

tabii ki üzerine gelen Amerika'dan

34:10

bahsediyorum.

34:14

ülkelerde yani yasal düzeni tab bir

34:17

şekilde bu şirketlerle konuşarak devlet

34:20

düzenlemeye çalışıyor. Ona da tepki

34:22

vermeleri lazım. Veriyorlardı. Zor bir

34:24

durum yani. Çok zor bir durum. Bunun

34:27

yegane çözümü tabii ki yapay zekayı şu

34:30

etik dediğimiz şey üzerine daha çok

34:32

araştırma yapıp daha akıllı hale

34:34

getirmemiz gerekiyor. Yani hani Kenya'da

34:38

işçi çalıştırıyorlar bunu yaptırmak

34:40

için. biliyorsunuz yani o insanın önüne

34:43

bir set, bir veri datası koyuyorlar.

34:46

Bunlar kötüdür, bunlar iyidir diye

34:48

işaretle diyorlar. O kadar yani bu kadar

34:50

basit olmamalı bu problem. Daha

34:52

sofistike çözümler yapabilecek kadar

34:55

para kazanıyorlar diye düşünüyorum.

34:58

>> Ayşe Güil Deniz çok teşekkür ederiz.

35:00

>> Ben teşekkür ederim.

UNLOCK MORE

Sign up free to access premium features

INTERACTIVE VIEWER

Watch the video with synced subtitles, adjustable overlay, and full playback control.

SIGN UP FREE TO UNLOCK

AI SUMMARY

Get an instant AI-generated summary of the video content, key points, and takeaways.

SIGN UP FREE TO UNLOCK

TRANSLATE

Translate the transcript to 100+ languages with one click. Download in any format.

SIGN UP FREE TO UNLOCK

MIND MAP

Visualize the transcript as an interactive mind map. Understand structure at a glance.

SIGN UP FREE TO UNLOCK

CHAT WITH TRANSCRIPT

Ask questions about the video content. Get answers powered by AI directly from the transcript.

SIGN UP FREE TO UNLOCK

GET MORE FROM YOUR TRANSCRIPTS

Sign up for free and unlock interactive viewer, AI summaries, translations, mind maps, and more. No credit card required.