Sunday, April 1, 2012

The need for variations in speed according to emotions

When a person or a robot loses something, it is time to re-estimate the value of that thing: should it be valued more in practise than this far? If so, then the present situation where it has been lost should be avoided in plans. But plans often advance via practical estimates of which way goals would be reached best. So there needs to be an extra minus factor, a loss counted for this situation, and that is easiest by slowing down when the goalsetting and the means are not fully all right but need repairing. And by speeding up when the course and the means and goals & side effects are favorable. Then one would naturally choose the most well working wise routes from the holistic perspectiva when optimizing toward any goal.

Remarks about military robots

See
http://hubpages.com/hub/Army-Robots-Running-Wild-CURED "Army robots running wild CURED".

* * *

How would you define "an enemy" to a military robot?
In what comes ti the moral of the robot, it would make sense to define enemy like behaviour of anyone. If one includes a picture of how for security reasons one cannot let Arab looking persons enter US headquarters or any other outsider coming from a fighting territory to change group just like that, since it could be an enemy plot, then thaT WHOLENESS OF GRPOUPS i.e. the independency of countries and the need for security measures could make the military robot attack suspiciously behaving soldiers. But most of all military robots would be needed against other military robots and there the suspicious behaviour of a robot could be quite much the same.
In what comes to moral of an army robot, it should safeguard the good of it's nation via safeguarding the good health of the world. So it could be peaceful at the same time as very protective: it could accept moral behaviour from all and protect against harm from anybody.

* * *

Since feelings are a way of looking at a robot instead of necessarily anything extra in the robot itself, also military robots could be seen as having feelings. Since it would be useful fort them to have the ability to estimate things right, they could have the view of a holistically objective person and so his/her emotional life largely too.

* * *
I found a paper called "How just could a robot war be?". If I remember right, it is from the NATO. But I am not sure. Without rereading it I begun to ponder, what the robot moral that I have made, could do in a robot war. In a war, a robot could be optimized for benefit as long as it is in harmony with the good of it's mother nation. Such optimizing could bring moral, even perfect moral according to robot's best ability. But how much is that ability and what happens in practical war situations: how does the robot behave then and how is just that the optimized choice?
Like for a human being, own intelligence if a robot makes it's choices wiser. So intelligence is a good choise. For a robot it means first mathematics and maps, then via their help scientifical kind of objectivity. Via better sensors and a picture of humans as animals with certain basic functions like eyesight, moving, thinking, memory, communication, feelings, goals, needs and values, a picture of the world and social bonding, via these and the social eye that needs to be developed for communicational purposes, robots could across time understand also human needs and the behaviour related to the various human needs. An objective view much like bureaucrats have ("You need these things in your life, what are the ways available for you to get them? Let's arrange a possibility for you to get them in harmony with the rest of the society.") could allow robot-made peaceful solutions that tae into account the real dynamics of humans.
Like in human societies, a certain amount of independent judgement ability for a robot, could safeguard the cooperating group against malfunctions and misleading information. Each robot ought to have a good practical picture of what it itself does and why, and a much more vague idea of the whole group, it's actions, their place in the world, a holistic theoretical picture of the whole world that allows optimizing toward moral, and an understanding of why the choices of it's group are the best ones in such a situation - it could also communicate about these things, even suggest better options.
A war situation in mechanical language is of the type "do I do this or that, how much of this and how much of that, what is the goal setting, how do I reach it this way, is there better option,...". A robot does decisions like stay here, move, shout, shoot, use the radio, take cover, choose another route, stay clear of other robot's way, watch the landscape, etc. Of these it can do too much, too little or ok. It can choose all wrong or even roughly right. If it has movements that can have a threatening or non-threatening style according to the situation, it can herd the situation toward wanted results, also toward communication and peaceful agreeable solutions. In optimization worst threaths are fought against and lots of room left for wanted peaceful solutions that are helped with communication and secure bases for one's own groups (unless retreat is sought for).

In Finnish: The self-guiding mechanism of robots

Millainen tulee olemaan ihmisenkaltaisten robottien tulevaisuus ja miksi?

Mikä olisi robottien asema ja miksi?
Ketä tahansa ei voi laskea komentamaan armeijan robottia ostoskeskukseen tappamaan 20 ensimmäistä vastaantulijaa. On monia tehtäviä, joihin robotit ovat liian rajuja. Siksi ei saa antaa kenellekään käskyoikeutta yli robotin niin että robotin on pakko totella, vaan robotin tulee olla riittävän hyvän maailmankuvansa ohjauksessa siinä, mitä se saa tehdä ja mitä ei. Maailmankuvan tulee sisältää paikka- ja tilanneriippuvaiset ohjeet siitä, mitä robotti saa tehdä ja millaisia ohjeita sen tulee noudattaa. Näin robottia ei voisi ohjelmoida tekemään pankkiryöstöä, mutta sen voisi suostutella viemään lappusen ystävälliselle pankkineidille. Robotin tulisi aina tajuta pääpiirteissään, missä se on, mitä se on tekemässä maailmankuvansa kannalta katsottuna: onko se esim. varastossa töissä vai kaupungilla kävelemässä.
Jottei ihmisten välille syntyisi kohtuuttomia valtaeroja sen mukaan, kenellä kulloinkin on millainenkin robotti ja kenellä ei, tulisi robottien ottaa vastaan käskyjä kaikilta, mutta vain tietynlaisia käskyjä kussakin tilanteessa. Yleiset kokonaiskuvallisella järjellä perustellut pelisäännöt määräisivät, miten tehtävät hoidetaan, missä järjestyksessä ja mitä kaikkea täytyy ottaa huomioon.

Robottien oikeudet
Kukin robotti olisi siis ensisijaisesti maailmankuvansa ohjauksessa ja kommunikaatioyhteydessä ihmisiin. Tavallaan se on jo oikeus itsenäiseen toimintaan. Sitä monet työtehtävätkin vaativat: työtehtävän omien vaatimusten noudattamista muun hälyn kustannuksella.
Luultavaa on, että robottien kehittyessä olisi mielekkäintä myös lisätä niiden oikeuksia.
Robotteja kuitenkin käytettäisiin myös vaarallisiin työtehtäviin. Millaisia olisivat niiden oikeudet silloin? Tässä merkitykselliseksi nousee robotin identiteetti: riittääkö sille, että aamuisin kopioidaan sen muisti tietokoneelle ja se saa uuden kehon, jos se päivän aikana tuhoutuu? Tällöin ei olisi mieltä siinä, että sama robotti seuraavana aamuna menisi uudelleen tehtävään, jossa eilen tuhoutui, kenties jopa tuhonsa muistaen, sillä jos se tuhoutui eilen, niin kai se olisi pulassa samanlaisissa oloissa myös tänään?! Jokainen onnettomuus vaatii setvimisvaiheen, jonka aikana selvitetään vaaran aiheuttaja ja varaudutaan selviytymään vastaavasta tilanteesta tulevaisuudessa sekä välttämään se tarpeen mukaan – robotti tarvitsee siis suruajan! Samoin on, jos uudelle robotille on tiedotettava vaarallisista olosuhteista.

Millaisia robotit olisivat?
On luonnollista, että toimivin vaihtoehto valittaisiin. Luultavasti se merkitsisi varsin selviytymiskykyistä peruskapasiteettia, jottei robotti olisi kamalan hankala käyttää.

* * *

Vuosi oli 2050, uudenvuodenjuhlat keskiyöllä vuosikymmenen vaihtuessa. John oli keskikaupungilla seuraamassa ilotulitusta ja osin kuljeskelemassa katselemassa hulinaa. Johnista oli kovin mukavaa nähdä niin monta ihmistä hyvällä tuulella vuodenaikaan, jolloin pimeys ja kylmyys helöposti masensivat kaikkien mielen.
Mannerheimintien kulmauksessa oli joku humalainen kaatunut tienvierustaan ja John veti hänet ylös. John oli jo jatkamassa matkaansa, kun pari pienessä sievässä olevaa nuorta miestä tuli huutelemaan hänelle jotakin: "Hei kaveri, miltä tuntuu olla robotti? Autoitkos ihan auttamisenhalusta? Olet niit'ä uudempia malleja, joilla on ihan oikea tunne-elämä, etkö olekin?" John oli hämillään, mitä tuohon nyt vastaisi. "Toki ihan auttamisenhalusta minä.", sai hän sanotuksi ja jatkoi: "On kiva, kun on rauhallista, väki tulee toimeen keskenään ja kaikki pärjäävät, minäkin siinä' seassa, vaikka erilainen olen." Eipä siinä mitään: "Hyvä meno, pidä häntä pystyssä!", sanoi nuori mies ja meni menojaan.
John jatkoi Töölönlahdelle päin ja mietti, millaista on olla ihminen ja millaista robotti. Ihminen on tavallinen, ihan kuin toisetkin, siinä ei ole mitään uutta. Mutta olla robotti, siinä on kaikki uutta, jokainen kohtaaminen erilainen, ei löydy robotin luonnosta niille samaa nimittäjää niin kuin ihmisluonnosta vaan koko ajan oppii uutta koko robottikunta. Niin kuin nytkin: joka hetki erilainen, joka kohtaaminen uudenlainen, jokainen ihminen-robotti-suhde vasta muotoutumassa, ihmisten kuva roboteista, robottien kuva itsestään ja mahdollisuuksistaan ihmisyhteisössä, kaikki niin uutta, kaikki niin kiehtovaa.